
- Select a language for the TTS:
- Deutsch Female
- Deutsch Male
- Language selected: (auto detect) - DE
Play all audios:
------------------------- * * * X.com * Facebook * E-Mail * * * X.com * Facebook * E-Mail * Messenger * WhatsApp * Dieser Artikel gehört zum Angebot von SPIEGEL+. Sie können ihn auch ohne
Abonnement lesen, weil er Ihnen geschenkt wurde. Ein kurzes Gedankenexperiment. Spätestens seit dem Wahlkampf um die US-Präsidentschaft 2016 gibt es öffentliche Gerüchte darüber, dass Putin
ein in Russland heimlich aufgenommenes Video besitzt. Darin soll Donald Trump mit mehreren Prostituierten zu sehen sein. Trump ist nach eigenem Bekunden Putin-Fan, aber trotzdem könnte das
Video im Verlauf des laufenden Wahlkampfes ins Internet geraten. Was würde dann passieren? Trumps Team würde mit ein paar Worten reagieren: Das ist ein Deepfake, hergestellt mit künstlicher
Intelligenz. Je länger man über diese oder ähnliche Konstellationen nachdenkt, umso verzwickter, aber auch gruseliger stellen sich die Verwerfungen durch künstliche Intelligenz in den
nächsten Jahren dar. Dabei ist das nur ein minimaler Ausschnitt der Veränderungen, die durch künstliche Intelligenz in Gang gesetzt werden. Umso schwieriger, komplexer, vielschichtiger
erscheint das Unterfangen, KI richtig zu regulieren. Der aktuelle KI-Boom kommt zum Beispiel fünf Jahre zu spät für die FPÖ, die durch das Ibiza-Video zeitweise implodierte. Und soeben haben
die Anwälte von Elon Musk vor Gericht behauptet, ein Musk-Video von 2016 , in dem er für eine Klage recht ungünstige Aussagen trifft, sei ein Deepfake. Die Richterin war zunächst nicht
überzeugt. Um Desinformation zu verbreiten, braucht es dennoch nicht immer ausgefeilte High-End-Fälschung: So glaubten während der Pandemie überraschend viele Leute, in den Impfstoffen
befänden sich Chips von Bill Gates, mit denen er über 5G Menschen fernsteuere, im Auftrag seiner Echsenmenschenkolleg*innen. Als Grundlage dafür reichte offenbar die bloße wörtliche
Behauptung durch irgendwelche merkwürdigen Personen im Internet. Natürlich sind Deepfakes ein neues, wachsendes Bedrohungsszenario von Fakenews bis Propaganda, aber die Grundproblematik der
Bullshitgläubigkeit war auch schon bisher groß und klar erkennbar. Deepfakes sind ein interessanter und zweifellos bedrohlich wirkender Komplex bei der Frage, wie man künstliche Intelligenz
regulieren sollte, aber er sollte für die Regulierung von KI nicht zu weit nach vorn gestellt werden. Man begegnet ja bisherigen Propaganda-Fake-Bildchen auch nicht durch ein Verbot von
Photoshop oder die Zusicherung von Photoshop-Hersteller Adobe, dass Olaf-Scholz-Bilder nicht verarbeitet werden können. Leider ist das symptomatisch, denn die bisherigen
Regulierungsbemühungen in Sachen KI erscheinen, vorsichtig gesagt, unausgegoren. EUROPAS DIGITALER REGULIERUNGSFETISCH WIRD ZUM PROBLEM Eines der Alarmzeichen ist eine Meldung zu einem
Entwurf des EU-Parlaments: Es heißt nämlich, das EU-Parlament wolle »die weltweit erste umfangreiche Regulierung der KI« vorlegen. In einem Halbsatz wird das gigantische, gesellschaftliche,
politische Problem der EU, Europas offensichtlich. Die USA wollen die beste KI der Welt, China will die effizienteste KI der Welt, Europa will die regulierteste KI der Welt, und zwar als
Erster, hurra! Es gibt ernsthaft EU-Abgeordnete, die auf die Frage nach den besten Exporten aus Europa antworten: die Datenschutzgrundverordnung DSGVO! Weltweites Erfolgsmodell! So als sei
Regulierung für sich genommen ein tolles Produkt, nach dem die Menschen begeistert fragen, das Europa Reichtum bringt und Ansehen verschafft in der Welt. Ein Satz des Parlaments selbst zu
diesem Thema lautet: »Mit einem entsprechenden starken Rechtsrahmen zum Schutz von Privatsphäre und Meinungsfreiheit sowie qualitativen digitalen Infrastrukturen könnte die EU in der
Datenwirtschaft weltweit eine Spitzenposition einnehmen.« So, so, der »starke Rechtsrahmen« mit seinen 235.235 Regulierungsfragmenten hat bisher dazu geführt, dass die EU
digitalwirtschaftlich weit zurückgefallen ist – aber der nächste »starke Rechtsrahmen« könnte! Würde! Hätte. ÜBERREGULIERUNG IST DIE WAHRE GEFAHR FÜR DIE EU Es ist völlig klar, dass
künstliche Intelligenz reguliert werden muss. Aber die größte, wirtschaftliche Gefahr – mit Abstand! – ist EU-seitig derzeit eine Fehl- und Überregulierung. Weil eine hyperprofessionelle
Politmaschinerie sich in der Rolle der Verhinderung gefällt. Und weil europäische Techregulierungspolitik nur selten aus der Abwägung von öffentlichen, mittel- und langfristigen Interessen
besteht, sondern in leider zu vielen Fällen aus intransparenten Kuhhandeln, Besitzstandwahrungslobbyismus und extrem kurzfristig ausgerichteter Politvermarktung. Für ein paar Schlagzeilen,
dem Wohlwollen einer Handvoll Lobbyisten und einem Hinterzimmerdeal – ihr stimmt diesem Gesetz zu, wir stimmen jenem Entwurf zu – wird weltverändernde Politik gemacht. Die Upload-Filter-Saga
sind ein Beispiel, das EU-Leistungsschutzrecht nach deutschem Vorbild ein anderes, und wenn man sich die ach so großartige DSGVO in ihrer Wirkung anschaut, dann besteht auch diese letztlich
aus Kompromissen zwischen regulierungsgeilen Datenschutzfundamentalisten und den lobbystärksten Konzernen. Die nebenbei bemerkt gar nicht immer die üblichen Verdächtigen sind und noch
seltener diejenigen mit dem größten Innovationspotenzial. Die KI-Regulierung zwischen Deutschland und Europa droht in genau diese Richtung zu gehen. So werden die Interessen der Bevölkerung,
kleinerer und mittelständischer Unternehmen und vor allem die Chance auf umfassenden Fortschritt – technologisch, ökonomisch, gesellschaftlich – aufgerieben. Genau deshalb warnen führende
deutsche Forschende in diesem Bereich explizit vor der EU-Regulierungswut zur künstlichen Intelligenz. Katharina Zweig, Professorin für Informatik der Technischen Universität Kaiserslautern
sagt: »Wir müssen hier unbedingt aufpassen, dass wir nicht überregulieren – auch das ist meiner Meinung nach Konsens in der deutschen Wissenschaftsgemeinde.« Dieser sanft, aber bestimmt
vorgetragene Satz bedeutet: Niemand vom Fach glaubt, dass die EU die Regulierung von künstlicher Intelligenz gut hinkriegen wird. Auch deshalb, weil trotz anzapfbarer Expertise die Politik
in Deutschland und Europa im Techbereich viel zu oft nach Anschein entscheidet: Oh, das hier sieht gefährlich aus, das regulieren wir mal lieber ganz dolle und viel hilft im Zweifel viel.
Aus diesem Grund ist es so besorgniserregend, wenn die derzeitigen Regulierungsrufe sich vor allem um zwei Themen drehen: Deepfakes, wo die großen Probleme kaum mit den derzeitigen
Regulierungsinstrumenten und Verboten in den Griff zu bekommen wären. Und den Großraum Urheberrecht, wo Deutschland und die EU in der Vergangenheit einige der verbocktesten Gesetze aller
Zeiten zu verantworten haben. Man denke an das unwürdige, langjährige Gehampel rund ums Leistungsschutzrecht, wo führende Politiker*innen auf Lobbydruck hin ernsthaft davon ausgehen wollten,
dass sogar, Zitat: »einzelne Worte oder kleinste Textausschnitte« zu schützen seien. Es lag lange ernsthaft der Vorschlag auf dem Tisch, dass eine fast beliebige Kombination aus drei Worten
bereits leistungsschutzrechtlich geschützt sei – wohlgemerkt fast jede Kombination aus drei Worten in Pressetexten, und nicht ganz spezifische Slogans. KEINE GUTE AUSSICHT: URHEBERRECHT
TRIFFT KI-REGULIERUNG Nun sagen die EU-Abgeordneten, dass sie ganz, ganz besonders interessiere, ob eine künstliche Intelligenz mit urheberrechtlich geschützten Daten trainiert worden sei
und welche genau das seien. Angesichts der Regulierungshistorie muss man hier das Schlimmste befürchten. Vermutlich kommt am Ende eine Mischung aus drei Regulierungsklassikern heraus: * Ein
Teilverbot vieler KI-Instrumente, das ausschließlich Konzernen mit hochspezialisierten Rechtsabteilungen oberhalb einer Hundertschaft Anwält*innen ermöglicht, künstliche Intelligenz sinnvoll
und ohne ständige Klagegefahr einzusetzen. * Ein KI-Zwangsabgabe zahlbar über eine monströse Behörde an random Rechteinhaber, zu bezahlen von Anbietern, die per Beweislastumkehr nicht
nachweisen können, dass geschützte, aber frei zugängliche der random Rechteinhaber Inhalte nicht beim KI-Training verwendet wurden. * Ein völliges Verbot der Nutzung von Daten für
Wissenschaft und Wirtschaft, die theoretisch von Menschen stammen könnten, die keine händisch doppelt mit Eigenblut unterschriebene Datennutzungszustimmungskooperationsvereinbarung in
achtfacher Ausfertigung an die zwölftausendköpfige europäische KI-Aufsicht gefaxt haben. Ganz zum Schluss streuseln Datenschützer und Arbeitsschützer noch eine Handvoll spezifischer und
absurder Verunmöglichungen über die Regulierung. Man darf nicht vergessen, dass wir in einem Land leben, in dem Laptops für reguläre Home-Office-Arbeitsplätze verboten sind. Ja, wirklich,
man darf aus arbeitsschutzrechtlichen Gründen nur Arbeitsgeräte verwenden , wo Tastatur und Bildschirm getrennt sind. Und die Tastatur neigbar ist sowie 10 bis 15 Zentimeter von der
Tischkante entfernt aufgestellt werden kann. Eine glorreiche Regulierungszukunft der künstlichen Intelligenz steht uns bevor, die so sensationell umfassend wird, dass wir in Deutschland gar
keine Unternehmensgründungen im Bereich KI mehr brauchen! Sondern die Regulierung selbst exportieren! Und zack, schreiben wir das Jahr 2038 und alle wundern sich wortreich, warum auch das
siebtübernächste Google wieder nicht aus Deutschland oder auch nur aus Europa kam.