Am 2. Februar 2025 trat der EU Artificial Intelligence Act (AI Act) in Kraft, ein umfassendes Regelwerk zur Regulierung von Künstlicher Intelligenz innerhalb der Europäischen Union. Dieses Gesetz zielt darauf ab, Verbraucher vor potenziell schädlichen KI-Praktiken zu schützen und gleichzeitig Innovation und Wettbewerb zu fördern. Doch welche konkreten Auswirkungen hat der AI Act auf die Verbraucher, und bedeutet dies das Ende der sogenannten „Datenkraken“ im Netz?
Internationale Regulierungsunterschiede bei Künstlicher Intelligenz und digitalen Märkten
Während die Europäische Union mit dem AI Act einen strikten Regulierungsrahmen etabliert hat, verfolgen andere Länder unterschiedliche Ansätze im Umgang mit Künstlicher Intelligenz. Diese Regulierungsunterschiede haben weitreichende Auswirkungen auf den internationalen Wettbewerb und die digitale Wirtschaft.
In den Vereinigten Staaten setzen die Behörden bislang auf freiwillige Leitlinien und eine weitgehende Selbstregulierung der Industrie. Es gibt zwar Diskussionen über gesetzliche Regelungen, jedoch existiert aktuell kein einheitlicher Rechtsrahmen für KI. Dieser flexible Ansatz soll Innovationen fördern und den technologischen Fortschritt nicht durch starre Vorschriften hemmen. Allerdings hat dies auch zur Folge, dass Verbraucher weniger Schutz vor potenziell invasiven oder manipulativen KI-Anwendungen genießen.
Zudem haben US-Technologieunternehmen, unterstützt durch die Regierung, begonnen, gegen die strikten EU-Vorschriften zu lobbyieren. Sie befürchten, dass diese strengen Regelungen Innovationen hemmen und die Wettbewerbsfähigkeit europäischer Unternehmen beeinträchtigen könnten .
China verfolgt hingegen einen gänzlich anderen Ansatz. Dort wurden spezifische Vorschriften erlassen, die den Einsatz von KI strikt regeln, insbesondere im Hinblick auf soziale Stabilität und staatliche Kontrolle. Der Fokus liegt dabei auf der Überwachung und Kontrolle von KI-Anwendungen, die als potenziell destabilisierend oder sicherheitsgefährdend angesehen werden.
Im Gegensatz zur EU und den USA dient die Regulierung in China vor allem dazu, die staatliche Kontrolle zu sichern und soziale Ordnung zu gewährleisten. Damit wird deutlich, dass in China neben dem technologischen Fortschritt vor allem politische und gesellschaftliche Stabilität als Ziel verfolgt wird.
Diese unterschiedlichen Regulierungsansätze bei der Künstlichen Intelligenz spiegeln sich auch in anderen Bereichen des Online-Wettbewerbs wider.
Ein prominentes Beispiel mit erheblichen Regulierungsunterschieden sind Kryptowährungen. Die EU arbeitet an einem einheitlichen Regulierungsrahmen für Kryptowährungen, um den Verbraucherschutz zu stärken und gleichzeitig Innovationen im Finanzsektor zu fördern. Ziel ist es, klare Richtlinien für den Handel und die Speicherung digitaler Vermögenswerte zu schaffen und damit mehr Rechtssicherheit für Anleger zu bieten.
In den USA gibt es hingegen keinen einheitlichen regulatorischen Ansatz. Hier unterscheiden sich die Regeln sowohl auf Bundes- als auch auf Staatsebene erheblich. Während einige Staaten, wie Wyoming, kryptofreundliche Gesetze haben, verfolgen andere eine restriktivere Politik.
Auch das Online Glücksspiel beispielsweise ist weltweit sehr unterschiedlichen gesetzlichen Regelungen unterworfen. In der EU ist dieses streng reguliert, wobei jedes Mitgliedsland eigene Gesetze hat: Casinos ohne Lizenz auf Wiseguys verdeutlichen diese Unterschiede. Während in Deutschland zum Beispiel strenge Vorgaben gelten, herrschen in anderen EU-Ländern, wie Malta, liberalere Regelungen. In den USA variiert die Legalität von Online-Glücksspielen stark von Bundesstaat zu Bundesstaat und China hingegen hat Online-Glücksspiele weitgehend verboten.
Diese Regulierungsunterschiede beeinflussen nicht nur die Marktstrategien internationaler Unternehmen, sondern auch die Rechte und den Schutz der Verbraucher in den jeweiligen Ländern. Angesichts der zunehmenden Digitalisierung und Globalisierung und der voranschreitenden Integration von KI wird sich die Frage nach der Harmonisierung solcher Vorschriften weiter verschärfen.
Direkte Auswirkungen des AI Acts auf Verbraucher
Der AI Act führt eine Reihe von Verboten für bestimmte KI-Praktiken ein, die als unvereinbar mit den Grundrechten und Werten der EU gelten. Zu den verbotenen Praktiken zählen:
- Manipulative KI-Systeme:
Der Einsatz von KI, die durch unterschwellige oder manipulative Techniken das Verhalten von Personen so beeinflusst, dass sie Entscheidungen treffen, die sie ansonsten nicht getroffen hätten, und dabei potenziell Schaden erleiden.
- Ausnutzung von Vulnerabilitäten:
KI-Systeme, die gezielt Schwächen oder besondere Merkmale von Personen, wie Alter oder Behinderung, ausnutzen, um deren Verhalten zu beeinflussen.
- Soziales Scoring:
Die Bewertung oder Klassifizierung von Personen basierend auf ihrem sozialen Verhalten oder persönlichen Merkmalen, was zu diskriminierender oder nachteiliger Behandlung führen kann.
- Vorhersage von Straftaten:
KI-Systeme, die versuchen, das Risiko vorherzusagen, ob eine Person eine Straftat begehen wird, basierend auf deren persönlichen Eigenschaften.
- Unautorisiertes Sammeln biometrischer Daten:
Das Erstellen oder Erweitern von Datenbanken durch wahlloses Sammeln von Gesichtsaufnahmen aus dem Internet oder von Überwachungskameras ohne Zustimmung der Betroffenen.
Für Verbraucher bedeutet dies einen verbesserten Schutz vor invasiven und manipulativen KI-Anwendungen. Unternehmen sind nun verpflichtet, sicherzustellen, dass ihre KI-Systeme diesen neuen Standards entsprechen.
Sind die „Datenkraken“ nun verschwunden?
Trotz dieser strikten Regulierungen bedeutet der AI Act nicht das vollständige Verschwinden datenintensiver Unternehmen, oft als „Datenkraken“ bezeichnet. Während bestimmte Praktiken nun verboten sind, bleibt das Sammeln und Verarbeiten von Daten unter Einhaltung der neuen Vorschriften weiterhin erlaubt. Unternehmen müssen jedoch transparente Verfahren implementieren und sicherstellen, dass sie die Rechte der Verbraucher respektieren, um nicht Opfer eines Datenlecks zu werden. Dies kann zwar zu einer Reduzierung invasiver Datenpraktiken führen, jedoch nicht zwangsläufig zum Verschwinden großer datenverarbeitender Unternehmen.