Hamburg (KNA) Wer durch die unendlichen Weiten des Internets navigiert, tut das häufig über Suchmaschinen. Sie waren eine geniale Erfindung, die das Internet erst zu dem gemacht hat, was es heute ist. Plötzlich musste man nicht mehr wissen, wo eine Information oder ein Inhalt zu finden ist, musste keine Listen oder Foren mit Links durchscrollen, um eventuell auf etwas Interessantes zu stoßen. Immer besser lotste vor allem Google seine Nutzer durchs Internet. Auch Medienhäuser machten sich das zunutze. Bis heute erhalten viele von ihnen den Traffic für ihre Online-Angebote zu etwa einem Drittel über Google. Suchmaschinen-Optimierung - also die Anpassung der eigenen Inhalte an die Bedürfnisse von Google, um möglichst weit oben in der Ergebnisliste aufzutauchen - ist zu einem eigenen Beruf geworden. Aber Suchmaschinen verändern sich gerade rasant. In den vergangenen Jahren hielten die neuesten Entwicklungen auf dem Feld der Künstlichen Intelligenz Einzug in Google und Co. Auch vorher war die algorithmisch gesteuerte Suche schon mit maschinellem Lernen ausgestattet, heute versteht man unter Künstlicher Intelligenz meist von der Suchmaschine erstellte Texte, die eine Zusammenfassung zur Suchanfrage liefern. Vor einiger Zeit führte Google seine AI Overview ein. Wer eine Suchanfrage startet, erhält unter Umständen nicht mehr bloß eine Liste von Webseiten, auf denen Google die gesuchte Information verortet. Stattdessen liefert Google einen eigenen Fließtext, der die Frage beantworten oder die Information liefern soll. Wie bei anderen KI-Chatbots auch, kämpft Google weiterhin mit haarsträubenden Fehlern in diesen Zusammenfassungen. Immer wieder stoßen Nutzer auf falsche Informationen in den KI-Texten. Das hängt mit den Halluzinationen der Technik zusammen, die nicht inhaltlich versteht, was die Nutzer wissen wollen oder suchen, sondern rein statistisch ausrechnet, welche Worte wohl am ehesten zu der Suchanfrage passen. Das stimmt dann oft, manchmal liegt die KI aber auch meilenweit daneben. Dass die Menschen den KI-Zusammenfassungen trotzdem oft mehr Aufmerksamkeit schenken als den Suchergebnissen, zeigt der Informatiker Dirk Lewandowski von der Hochschule für Angewandte Wissenschaften in Hamburg, der im Auftrag der Landesmedienanstalten eine Studie zu KI und Suchmaschinen durchgeführt hat. Bei der Vorstellung der Studie in dieser Woche wies Lewandowski auf Untersuchungen mit Eye-Tracking hin, die zeigen, dass Menschen vor allem auf die Elemente der Ergebnisliste schauen, die sich von der Liste der Links abheben. Da die Anbieter von Suchmaschinen die KI-Antworten oft ganz oben anzeigen oder farblich hervorheben, ziehen sie die Aufmerksamkeit der Nutzer auf sich. Das führe dann dazu, dass die Menschen oftmals nur noch den KI-Text lesen und nicht mehr auf andere Seiten klicken. Der Traffic bei anderen Anbietern, zum Beispiel Medienhäusern, sinkt - laut Studien zwischen 18 und über 50 Prozent. Davon berichten seit dem Start des Google-KI-Tools Gemini viele Verlage. Bereits im Frühjahr, kurz nach dem Start, beklagte beispielsweise der Chefredakteur der "Apotheken Umschau", Dennis Ballwieser, bei einer Medienkonferenz: "Gemini wird uns zerstören." Wer sein Geld damit verdiene, eine möglichst große Reichweite für seine Artikel und damit auch für die Werbeanzeigen neben den Artikeln zu erzielen, komme in Schwierigkeiten, so Ballwieser damals. Auch Medienhäuser, die ihr Geld im Netz mit Abos verdienen, berichten von zurückgehenden Klickzahlen und somit von weniger Aboabschlüssen. Weniger Einnahmen bedeuten in der ohnehin schon angespannten Finanzlage in der Medienbranche für viele Häuser eine Bedrohung der eigenen Existenz - zumal laut Lewandowski völlig unerforscht sei, welche Bedeutung Quellenangaben unter KI-Texte haben und ob Nutzer diese wahrnehmen und anklicken. Lewandowski rechnet damit, dass der geringere Traffic Einfluss auf die Produktion von Inhalten und damit auch auf den Journalismus haben werde. Wer auf eine direkte Refinanzierung der eigenen Inhalte angewiesen sei, werde weniger produzieren. Lizenzvereinbarungen zwischen Tech-Unternehmen und Medienhäusern könnten in Zukunft eine größere Rolle spielen. Und nicht zuletzt werde der Einfluss der Inhalte steigen, die nicht direkt auf Refinanzierung angewiesen sind, beispielsweise Texte von Parteien, Lobbyorganisationen oder anderen interessengeleiteten Urhebern. Diese könnten weiter im Trainingsmaterial der KI landen und die KI-Antworten stärker inhaltlich beeinflussen als unabhängiger Journalismus. Ein Problem, das auch die Landesmedienanstalten erkannt haben, die auch über die Meinungsvielfalt wachen. Dort rechnet man mit "weitreichenden Konsequenzen", wie Eva-Maria Sommer, Direktorin der Medienanstalt Hamburg/Schleswig-Holstein, bei der Vorstellung der Studie sagt. Denn erstmals seien Google und Co. - Medienintermediäre in der Fachsprache - nicht mehr bloß dafür zuständig, Nutzer und Inhalte zusammenzubringen, sondern erstellen selbst eigene Inhalte. Das hat rechtliche Folgen für die Unternehmen. Wer nur für die Vermittlung von Inhalten zuständig ist, kann sich auf das sogenannte Haftungsprivileg berufen. Das besagt, dass Google nicht rechtlich verantwortlich ist, wenn jemand über Google rechtswidrige Inhalte verbreitet. Der Konzern muss die Inhalte von der eigenen Plattform entfernen, aber erst, wenn er darauf hingewiesen wird, dass sie illegal sind. Dieses Privileg gilt aber nicht, wenn Google mit einer Sprach-KI selbst Inhalte, also einen Fließtext als Antwort auf eine Suchanfrage, erstellt. Sollten in diesem Text rechtswidrige Inhalte auftauchen, müsste Google dafür haften. Folgen gebe es auch für Transparenzpflichten und Diskriminierungsfreiheit, so Sommer weiter. Denn Nutzer erfahren derzeit relativ wenig darüber, wie die Google-Texte entstehen und aus welchen Quellen sie sich zusammensetzen. Außerdem sei fraglich, ob es rechtmäßig sei, dass Google die eigenen Inhalte immer ganz oben in der Suchleiste platziert, oder dass andere Suchmaschinenanbieter wie zum Beispiel Bing die KI-Antworten farblich hervorhebt. Das könnte eine unzulässige Selbstbevorzugung sein, die gegen das Wettbewerbsrecht verstößt. Und dann wäre da noch das Problem der Meinungsvielfalt: Die KI-Suche sei schließlich für die Nutzer überaus bequem, sagte Eva Flecken, Vorsitzende der Direktorenkonferenz der Landesmedienanstalten. Gerade weil durch die Bequemlichkeit aber davon auszugehen ist, dass die KI-Antworten stark genutzt werden könnten, schließen sich Flecken zufolge eine Reihe von Fragen an: "Es muss verhindert werden, dass es eine weitere Konzentration von Informationsmacht gibt", so Flecken. Denn es wären schließlich die ohnehin schon mächtigen Tech-Konzerne, die hinter den meisten KI-Unternehmen stecken, die künftig immer größere Macht darüber hätten, welche Informationen zu welchen Nutzern gelangen. Diese Tatsache - im Zusammenspiel mit den immer schwierigeren wirtschaftlichen Bedingungen für Journalismus im Netz - könnte zum Problem werden, so die Medienanstalten. Was also tun? Ein konkretes Konzept können die Aufsichtsbehörden gegen diese Entwicklungen noch nicht vorlegen. Sie warten zunächst einmal auf die Ergebnisse eines juristischen Folgegutachtens. Dieses soll ermitteln, inwieweit die medienrechtlichen Instrumente, die es in Deutschland und Europa derzeit gibt, ausreichen, um die Bedenken zu adressieren. Wann das Gutachten fertig ist, ist noch völlig offen. Doch in der Branche wächst die Ungeduld. Der Deutsche Journalisten-Verband forderte als Reaktion auf das Gutachten die Verlegerverbände auf, den "markigen Worten" jetzt Taten folgen zu lassen. Es reiche nicht aus, auf dem Verlegerkongress den Krieg mit Google auszurufen, so der DJV. "Jetzt hilft nur noch die offensive Auseinandersetzung."