
Welche Sichtweise hat man in den USA auf Regulierung, vor allem im Zusammenhang mit Künstlicher Intelligenz? Dr. Thorsten Schmiege, Präsident der Bayerischen Landeszentrale für neue Medien (BLM), hat bei seinem Besuch der South by Southwest (SXSW) und in San Francisco mit Plattformen, Branchenkennern und Wissenschaft über die disruptiven Auswirkungen von KI und den geeigneten Rechtsrahmen dafür gesprochen.
Spielen in den USA Grundsätze wie Unabhängigkeit, Anbietervielfalt und die Relevanz journalistischer und redaktioneller Inhalte in der Nutzungspraxis eine ebenso große Rolle wie in Deutschland und Europa? Wie sind Verantwortlichkeit und Pflichten der Big-Tech-Player praktisch umsetzbar? Und wann stehen sie nicht mehr im angemessenen Kosten-Nutzen-Verhältnis, um eine chancenorientierte KI-Regulierung anzustoßen?
Diese Fragen sind besonders wichtig für digitale Medienmärkte. Eine wesentliche Voraussetzung für die Meinungsvielfalt in einer Demokratie ist eine breite Angebotsvielfalt. Nutzerinnen und Nutzer müssen in der Lage sein, Angebote von besonderer Relevanz für die Meinungsbildung leicht zu finden. Nur so kann gewährleistet werden, dass die unterschiedlichen Perspektiven und Interessen der Gesellschaft in der Medienlandschaft repräsentiert werden.
In einer modernen Plattformökonomie, in der Auffindbarkeit und Aufmerksamkeit die Nutzung bestimmen, dominieren Suchmaschinen, Gratis-Video-on-Demand und soziale Medien den Markt. Sie legen die Regeln für die Nutzung von Inhalten fest. Selektion, Aggregation und Zugänglichmachung von Inhalten ersetzt zunehmend die Rolle von Redaktionen.
Der Missbrauch einer marktbeherrschenden Stellung und Formen der Selbstbevorteilung sind nach europäischem und deutschem Recht zu sanktionieren. Es stellt sich die Frage, wie medienrechtliche Grundprinzipien von Verantwortlichkeit, Vielfalt und Transparenz mit einer effektiven Regulierung gewährleistet werden können. Bedarf es also einer Neubewertung regulatorischer Rahmenbedingungen, um Monopolbildung einzudämmen und die demokratische Vielfalt zu sichern?
Dr. Thorsten Schmiege (BLM) und sein Kollege Dr. Wolfgang Kreißig (LfK) im Austausch bei der SXSW. (Foto: BLM)
KI-Einsatz darf Vielfalt und Vertrauen in Medien nicht beeinträchtigen
Die Bedeutung der Plattformen wird dadurch verstärkt, dass viele Big Tech-Unternehmen zugleich Anbieter weit verbreiteter Systeme Künstlicher Intelligenz sind. Die Medienanstalten sehen den Einsatz von KI in Medien als Chance, aber auch als Herausforderung für die Meinungsvielfalt und das Vertrauen in Medieninhalte. KI entwickelt sich dynamisch weiter. Innovationen entstehen in rasantem Tempo. Und die Grenzen dessen, was KI leisten kann, verschieben sich kontinuierlich. Nach unserem Verständnis braucht Innovation den richtigen Rahmen, um ihr Potenzial voll zu entfalten.
Der Einsatz von Künstlicher Intelligenz darf die Vielfalt in den Medien und das Vertrauen in Medieninhalte nicht beeinträchtigen. Das bedeutet, dass sowohl bei der Erstellung als auch bei der Distribution von Medien durch KI-Systeme die Unterschiedlichkeit von Meinungen und Perspektiven sichtbar bleiben muss.
Für die Vielfalt der Meinungen im demokratischen Diskurs ist das Vertrauen in die Medieninhalte entscheidend. Um Vertrauen zu bewahren und KI als Chance zu begreifen, sind nach unserem Verständnis medienrechtliche Prinzipien wie Transparenz und Diskriminierungsfreiheit auch auf KI anzuwenden.
Umfragen zeigen, dass Rechtsunsicherheit in der Bevölkerung ein großes Hindernis bei der Nutzung von KI darstellt. Auch Experten betonen die Bedeutung klarer Leitplanken. Solche Leitplanken schaffen Vertrauen, verhindern Missbrauch und gewährleisten damit rechtliche Sicherheit.
Warum sehen einige Akteure Regulierung als potenziell schädlich an?
Grundsätzlich sind sich auch die Akteure in Übersee der Verantwortung und vor allem der disruptiven Auswirkungen von KI beim Einsatz bei der Medienrecherche, Inhalteproduktion und Distribution dieser Inhalte bewusst. In der Bewertung der Frage, wie weit diese Verantwortung auch zu Einschränkungen der Nutzung führen kann und soll, gehen die Meinungen allerdings abhängig von der eigenen Rolle stark auseinander.
In den Gesprächen drehte es sich weniger darum, ob man eine smarte Regulierung braucht, sondern was in diesem Zusammenhang smart bedeutet. Interessant: Auf der SXSW wurde intensiv diskutiert, ob die Nutzung von KI, beispielsweise durch große Plattformen, diese nicht vom Distributor zum Publisher macht. Google stellte diese These im persönlichen Austausch in Frage. Allerdings wird immer wieder betont, dass man bei der Aggregation von Inhalten und Prüfung von Quellen besonders sorgfältig ist, die KI beispielsweise keine Wahlempfehlungen ausspricht – obwohl sie dies könnte. Das erinnert mich stark an Fragen, wie sie sich auch eine verantwortliche Redaktion stellt...
Die gute Nachricht aus meiner Sicht: Die Erkenntnis, dass es gerade für Künstliche Intelligenz rechtliche Leitplanken geben muss, ist auch in den USA überraschend weit verbreitet. Die schlechte Nachricht: Während wir im "old continent" Risiken im AI Act analysieren, werden im Bay Area Fakten geschaffen.
Vor allem aber hält sich das Narrativ, dass Europa verschlafen und regulierungswütig ist. Zu Recht?
Die Bayerische Landeszentrale für neue Medien (BLM) veröffentlicht regelmäßig Beiträge zu fachspezifischen Themen im Blog der MEDIENTAGE MÜNCHEN. Die MEDIENTAGE MÜNCHEN sind eine Initiative der Medien.Bayern GmbH – einer Tochtergesellschaft der BLM.
Die Zusammenfassungen wichtiger Panel-Diskussionen sowie Bildmaterial der 38. MEDIENTAGE MÜNCHEN stehen in der Mediathek der Medientage-Homepage und im MTM-Blog bereit. Dort kann auch der wöchentliche Blog-Newsletter abonniert werden.
Die Medienthemen können auch gehört werden: im Podcast der MEDIENTAGE MÜNCHEN.
Kommentare