Die Bemühungen der Europäischen Union, Big Tech so weit wie möglich zu regulieren, sind bewundernswert, aber es ist ein gewisses Gleichgewicht erforderlich. Andernfalls besteht die Gefahr, dass die Länder und Unternehmen zurückbleiben, wenn die Welt auf die nächste Stufe großer technologischer Fortschritte springt.
Mit großer Sicherheit ist es nicht Ziel der Europäischen Kommission, dass Technologieunternehmen durch strenge Vorschriften behindert oder gar geschwächt werden und diese Strategie darüber hinaus dazu beiträgt, dass Innovationen innerhalb der EU gebremst werden. All diese komplexen Compliance-Vorschriften könnten zudem den Wettbewerb tatsächlich behindern.
Ein gutes Beispiel ist hierbei die Plattform Threads, eine Meta-Microblogging-App, die mit Twitter konkurrieren und ihm den Garaus machen soll. Das Komische ist, dass Threads in der EU immer noch nicht verfügbar ist.
Das ist richtig: Eine App, die innerhalb von fünf Tagen 100 Millionen Nutzer registriert hat, ist noch nicht in einem wichtigen Markt mit über 400 Millionen potenziellen Nutzern verfügbar.
Ja, die EU hat wahrscheinlich Recht, wenn sie sich nicht rührt und sicherstellen will, dass Meta europäisches Recht befolgt. Denn Artikel 5.2 des Digital Markets Act verhindert, dass Technologieunternehmen Daten ohne Zustimmung der Nutzer zwischen verschiedenen Plattformen nutzen. Threads ist direkt mit Instagram verbunden, und die Nutzerdaten von Instagram werden automatisch auf die neue App übertragen. Dies ist nach dem Datenschutzgesetz illegal. Meta muss die Einrichtung eines Threads-Kontos ohne vorheriges Instagram-Profil ermöglichen.
Das Problem der unbeabsichtigten Folgen
Die EU genießt es, wenn ihre Datenschutzgesetze in den Schlagzeilen der Welt als vorbildlich, als erstklassig bezeichnet werden. Die Kommission scheint sich ziemlich sicher zu sein, dass ihr digitales Regelwerk andere dazu bewegen wird, ihrem Beispiel zu folgen.
Aber die amerikanischen Tech-Giganten sagten, zumindest anfangs, nein danke. Als Google Bard, seine Antwort auf den ChatGPT-Bot von OpenAI, herausbrachte, hieß es, das neue Tool werde auch in der EU nicht verfügbar sein.
Jetzt ist es aber verfügbar. Aber Google hat es immer noch geschafft, anzudeuten, dass es großartig wäre, sein Produkt in der EU zu veröffentlichen, wenn da nicht diese lästigen Regeln und das Risiko von Geldstrafen wären. Das ist natürlich Lobbying-Taktik, und sie funktioniert.
Als Sundar Pichai, der Chef von Alphabet, der Muttergesellschaft von Google, Ende Mai Brüssel besuchte, erklärte er, dass sein Unternehmen offen für mehr Regulierung sei - aber nur, solange diese nicht die Innovation behindere. Wer würde dem widersprechen?
Nehmen wir die Allgemeine Datenschutzverordnung der EU (GDPR), die 2018 eingeführt wurde und den Nutzern mehr Kontrolle über ihre Daten geben soll. Sie wurde als bahnbrechende Rechtsvorschrift gefeiert, und die im Rahmen der GDPR erhobenen Geldbußen beliefen sich in diesem Jahr auf über 4 Mrd. EUR (4,4 Mrd. USD).
Diese Art von Aufmerksamkeit für die Privatsphäre der Verbraucher hat jedoch immer zu weniger Qualität und Wettbewerb bei den Dienstleistungen geführt, auch wenn es sich dabei eher um ein Problem unbeabsichtigter Folgen handelt. Bereits im Jahr 2021 schrieb die Harvard Business Review (HBR), dass Start-ups und kleine Unternehmen gegenüber großen Firmen stark benachteiligt sind.
"Untersuchungen zeigen, dass GDPR zu einem Anstieg der relativen Konzentration auf dem Markt der Webtechnologie-Anbieter um 17 % geführt hat und dass Websites nun mit 15 % geringerer Wahrscheinlichkeit personenbezogene Daten mit kleinen Webtechnologie-Anbietern zu Gunsten größerer Anbieter teilen", so HBR.
"GDPR hat sich auch negativ auf das Wachstum von KI-Startups mit Kunden in Europa ausgewirkt und Investitionen in europäische Tech-Startups reduziert."
Zu zurückhaltend, zu langsam
Auch hier hat der Verbraucher am Ende das Nachsehen. Und es ist nur eine Illusion zu glauben, dass die Fortschritte in der generativen KI keine direkten Auswirkungen auf die EU-Bürger haben.
Es gab einen massiven Vorstoß zur Regulierung der KI in Europa. Im Frühjahr hat die EU das KI-Gesetz eingeführt, um die Nutzung und Verbreitung von KI-Technologien zu regeln - es soll sicherstellen, dass in der EU eingesetzte KI-Systeme "sicher, transparent, nachvollziehbar, nicht diskriminierend und umweltfreundlich" sind. Dies ist sehr lobenswert. Die Kontrolle der Innovation bei KI-Systemen muss sehr sorgfältig erfolgen, da Maschinen schnell lernen und wir, die Meister, bald zu den Schülern werden könnten (oder vielleicht auch nicht).
Aber auch hier fehlt es an Ausgewogenheit. Wenn Europa zu vorsichtig und zu langsam ist, wird es erleben, dass KI-Durchbrüche in den USA, China oder Russland vorbeiziehen - eine Art KI-basierte nukleare Parität wäre dann schwer zu erreichen, und Europa würde an Sicherheit verlieren.
Dutzende der größten europäischen Unternehmen, darunter Siemens und Airbus, haben sich bereits gegen das KI-Gesetz ausgesprochen und erklärt, dass die Vorschriften der Wettbewerbsfähigkeit schaden könnten, ohne auf die potenziellen Herausforderungen einzugehen.
In einem offenen Brief, der von mehr als 150 Führungskräften unterzeichnet wurde, heißt es, KI biete den Unternehmen des Kontinents die "Chance, wieder zur technologischen Avantgarde zu gehören". Es wird sogar von den "katastrophalen Folgen" des KI-Gesetzes gesprochen.
Sicher, wenn sogar die berühmte Brauerei Heineken einen solchen Brief unterschreibt, klingt das ein wenig übertrieben. Aber die EU, die ständig von Führung und so genannter strategischer Autonomie spricht, muss sich wirklich anstrengen.
Ein KI-Wettrüsten
Das liegt daran, dass ein KI-Wettrüsten bereits im Gange ist. Schauen Sie sich nur an, was Alexander Karp, CEO von Palantir Technologies, einem Unternehmen, das Datenanalysesoftware entwickelt und mit dem Pentagon zusammenarbeitet, in einem Meinungsartikel mit dem Titel "Unser Oppenheimer-Moment: Die Entwicklung von KI-Waffen" zu sagen hatte.
"Wir stehen vor der Wahl, die Entwicklung der fortschrittlichsten Formen künstlicher Intelligenz einzudämmen oder gar zu stoppen, die nach Ansicht mancher die Menschheit bedrohen oder eines Tages verdrängen könnte, oder ein ungehindertes Experimentieren mit einer Technologie zuzulassen, die das Potenzial hat, die internationale Politik dieses Jahrhunderts so zu prägen, wie Atomwaffen das letzte geprägt haben", schreibt Karp.
Er stimmt zu, dass "die mögliche Integration von Waffensystemen mit zunehmend autonomer Software für künstliche Intelligenz zwangsläufig Risiken mit sich bringt". Aber er fügt hinzu: "Wir dürfen jedoch nicht davor zurückschrecken, scharfe Werkzeuge zu entwickeln, aus Angst, sie könnten sich gegen uns wenden".
Karp spricht, um fair zu sein, über das Silicon Valley und seine Zweifel an der Arbeit an Softwareprojekten, die offensive militärische Anwendungen haben könnten. Dazu gehören natürlich auch maschinelle Lernsysteme.
Aber sein Argument sollte auch für die EU gelten. Ja, der Kontinent hat seit fast 80 Jahren keinen globalen Konflikt mehr erlebt, aber wer weiß schon, was die Zukunft bringt? Russland führt bereits einen Krieg gegen die Ukraine.
Und wenn es zu einem noch größeren Krieg kommt, wollen die Europäer dann wirklich sehen, dass die gegnerische Seite überlegen ist, nur weil Brüssel vor ein paar Jahren "ethische" und "umweltfreundliche" KI-Systeme entwickeln wollte?
Quelle: Tech regulation in Europe: are citizens missing out? | Cybernews