banner
Heim / Nachricht / Wie wird künstliche Intelligenz den Journalismus verändern?
Nachricht

Wie wird künstliche Intelligenz den Journalismus verändern?

Jul 29, 2023Jul 29, 2023

Anfang Juli schloss Associated Press einen Vertrag mit OpenAI, dem Hersteller von ChatGPT, ab, um „einen Teil des Textarchivs von AP“ zu lizenzieren und Zugang zu „der Technologie- und Produktkompetenz von OpenAI“ zu erhalten. Ein paar Tage später kündigte OpenAI einen Zuschuss in Höhe von 5 Millionen US-Dollar an, begleitet von 5 Millionen US-Dollar an „Gutschriften“ für die Softwarenutzung, an das American Journalism Project, eine Organisation, die gemeinnützige Nachrichtenredaktionen unterstützt. In der Zwischenzeit hat Google Berichten zufolge großen Nachrichtenorganisationen, darunter der New York Times, der Washington Post und dem Wall Street Journal, eine neue Software „persönlicher Assistent“ für Journalisten mit dem Codenamen Genesis geschenkt, die verspricht, „Informationen aufzunehmen“. – zum Beispiel Details zu aktuellen Ereignissen – und Nachrichteninhalte generieren“, wobei einige der Anwesenden einen Pitch beschrieben, der sie als beunruhigend bezeichnete. Eine Reihe von Nachrichtenorganisationen, darunter G/O Media, zu dem Gizmodo, Jezebel und The Onion gehören, experimentieren mit von Grund auf neu erstellten Blog-Inhalten, und viele andere mit unterschiedlichem Grad an Transparenz haben begonnen, sich daran zu versuchen.

Letzte Woche berichtete Semafor, dass das nächste wichtige Treffen zwischen Nachrichtenorganisationen und KI-Firmen vor Gericht stattfinden könnte: Barry Dillers IAC und „eine Handvoll wichtiger Verlage“, darunter die Times, News Corp und Axel Springer, „formalisieren“ Berichten zufolge eine Koalition, die sowohl eine Klage anführen als auch auf gesetzgeberische Maßnahmen drängen könnte.“ Sie suchen nicht nach kleinen Zuschüssen oder explorativen Kooperationen. Ihrer Ansicht nach stehlen KI-Unternehmen systematisch Inhalte, um Softwaremodellen beizubringen, diese zu kopieren. Sie fordern eine Entschädigung, die „in Milliardenhöhe gehen könnte“.

Man kann mit Fug und Recht sagen, dass es sich hierbei um die widersprüchlichen Maßnahmen einer durcheinandergeratenen Branche handelt, die aus einer Position der Schwäche heraus mit spekulativen Störungen konfrontiert wird. Das ist nicht ideal, wenn Sie zu den Menschen gehören, die viel Wert auf eine funktionierende Vierte Gewalt legen, aber es ist auch nicht einzigartig: In Konferenzräumen auf der ganzen Welt stolpern Angestellte über nervenaufreibende Gespräche über inkohärente Präsentationen die bevorstehende Annäherung der KI mit dem Auftrag oder der Absicht, einige – welche! – eine Art Plan. Es ist auch verständlich. Es ist einfacher, die Führung von OpenAI und Google dazu zu bringen, über die Apokalypse zu sprechen, als sich ein klares Bild von ihren eigenen Plänen zu machen, mit großen Sprachmodellen Geld zu verdienen, geschweige denn, wie sich diese Pläne auf die Berichterstattung und Verbreitung der Nachrichten auswirken könnten . Die besonderen Panikbekundungen der Medienbranche sind das Ergebnis eines umfassenden Gefühls, diesen neuen Formen der Automatisierung ausgesetzt zu sein – was wohl die beste Art ist, über künstliche Intelligenz nachzudenken –, verbunden mit einem Gefühl tiefer Verwirrung darüber, was die Herausforderungen sind und für wen .

Die vereinzelten frühen Reaktionen der Branche auf KI scheinen jedoch einige Annahmen zu enthalten, und aus diesen Annahmen können wir einige mögliche Zukunftsaussichten ableiten – wenn nicht die wahrscheinlichen, dann zumindest solche, auf die sich die Verantwortlichen des Nachrichtengeschäfts am meisten freuen oder vor dem sie am meisten Angst haben. Die heftigen frühen Reaktionen der Nachrichtenmedien auf KI sind auf ihre Art Vorhersagen. Bisher gibt es einige vorherrschende Denkschulen hierzu.

Theorie 1: KI ersetzt Journalismus

Im einen Extremfall gibt es Online-First-Nachrichtenorganisationen, die bereit sind, jetzt auf möglichst unkomplizierte Weise mehr Inhalte zu generieren: Sie bitten Tools, die auf neuen großen Sprachmodellen basieren, Geschichten über x oder y für die direkte oder leicht bearbeitete Veröffentlichung zu verfassen. CNET, die Tech-News-Website, hat diese Strategie schon früh übernommen, zog sich jedoch zurück, nachdem sich herausstellte, dass der wenig gelesene Inhalt voller eklatanter Fehler war; Unbeirrt versucht G/O eine ähnliche Strategie mit einer zusätzlichen Prise Feindseligkeit gegenüber seinen gewerkschaftlich organisierten Mitarbeitern.

Es ist verlockend, bei der Frage stecken zu bleiben, ob KI-Tools in der Lage sind (oder bald sein werden), plausible Versionen eines Großteils der in diesen Publikationen bereits veröffentlichten Inhalte zu erstellen. Als Strategie macht der All-in-on-AI-Ansatz diese Frage jedoch irrelevant. Wenn ein Bot nicht in der Lage ist, Inhalte, die die Leute lesen möchten, überzeugend in Massenproduktion zu produzieren, oder zumindest Inhalte, deren Aufrufe von Publishern irgendwie für Anzeigen gesammelt werden können, dann scheitert der Plan. Wenn es gelingt – das heißt, wenn G/O einen Großteil seiner Inhalte durch KI-generierte thematische Blogbeiträge ersetzen und eine Art profitable Leserschaft behalten kann –, dann scheint der Plan immer noch zu scheitern, denn wenn G/O es kann, dann Jeder kann und will. Die Kosten für einen überflogenen und verworfenen Blog-Beitrag werden gegen Null gehen und, wie andere Formen von Inhalten, die bereits weitgehend automatisiert wurden (Zusammenfassungen der vierteljährlichen Gewinne, Wetterberichte, grundlegende Sportergebnisse), selbst keinen großen Wert mehr generieren .

Ein weiteres Problem dieser Strategie besteht darin, dass kleine Verlage, die die Tools von Technologieunternehmen nutzen, gegen die großen Technologieunternehmen selbst antreten. Google testet eine Funktion, die KI-generierte Antworten ganz oben in den Suchergebnissen bereitstellt. Ich benutze es seit ein paar Monaten und seine Aussichten sind interessant und kompliziert. Die Aufgaben, für die es am kompetentesten erscheint – Bereitstellung kurzer Hintergrundinformationen zu einem breiten Thema, einer Nachrichtenveranstaltung oder einem Konzept; Vorschläge für Produkte oder Inhalte; Das Rezitieren objektiver Fakten über eine Person oder Sache – sind diejenigen, die es am meisten wie eine Plagiatsmaschine erscheinen lassen. Im engeren Sinne ist es besser, als ich erwartet hatte. Aber es war auch in psychologischer und verhaltensbezogener Hinsicht überraschend, dass Googles glaubwürdiger, relevant erscheinender KI-Inhalt, zumindest für diesen Nutzer, zu so etwas wie einer Anzeige geworden ist: ein zweitrangiger Inhaltsblock, über den meine Augen zu streifen lernen . Ich erwähne dies nicht, um eine Prognose über die Grenzen KI-generierter Massenmedieninhalte abzugeben, sondern um vielmehr die Hoffnungslosigkeit zu betonen, mit ihr als traditionelle Publikation zu konkurrieren, die hofft, Suchverkehr mit per Definition schlechteren und weniger relevanten KI-generierten Inhalten einzusammeln Massenmedieninhalte. Auch hier werden die Antworten auf die offensichtlichste Frage – welche Arten von Inhalten kann eine Maschine generieren und gleichzeitig das Interesse menschlicher Leser wahren – irrelevant.

Mit anderen Worten: Der theoretisch vollautomatisierte G/O-Blog gewinnt nicht. Wahrscheinlicher ist, dass es in den Augen digitaler Plattformen in den Spam-Status abrutscht. Es ist unwahrscheinlich, dass eine bestehende Nachrichtenorganisation eine solche Möglichkeit trotz ihrer oberflächlichen Anziehungskraft auf das Management letztendlich in vollem Umfang ausloten wird. Wenn dies der Fall wäre, stünden sie – oder zumindest wir – vor einem letzten Problem: Ein vollautomatisches Nachrichtenprodukt, das von uninteressierten Synthesemaschinen produziert wird, auf bereits verfügbaren Informationen basiert und keinen Funken oppositioneller Entscheidungsfreiheit besitzt, käme im besten Fall auf Folgendes hinaus: Aggregation von geringem Wert und im schlimmsten Fall so etwas wie Werbung. Oder Propaganda! Es würde die Teile der „Nachrichten“ automatisieren, die bereits billig sind.

Theorie 2: KI verbessert den Journalismus

Weitaus häufiger sind bisher vorläufige Pläne, herauszufinden, wie Textgenerierungstools bei der Produktion und Verbreitung von Nachrichten, bei denen der Mensch im Mittelpunkt steht, nützlich sein könnten. Im April erteilte Insider-Redakteur Nicholas Carlson seiner Nachrichtenredaktion die Erlaubnis bzw. Anweisung, Tools wie ChatGPT zu verwenden. „Nachdem ich ziemlich viel mit ChatGPT experimentiert habe, bin ich zu dem Schluss gekommen, dass generative KI auch Sie alle zu besseren Redakteuren, Reportern und Produzenten machen kann“, schrieb er in einem Memo an die Mitarbeiter und warnte gleichzeitig davor, dass solche Tools falsche Ergebnisse liefern können Informationen zu sammeln und effektiv zu plagiieren. „Wir wissen, dass es Ihnen bei der Lösung von Schreibproblemen helfen kann. Aber Ihre Geschichten müssen vollständig von Ihnen geschrieben sein“, schrieb er und ließ den Mitarbeitern entweder eine Reihe von Folgefragen oder vielleicht nur ein wenig Spielraum. (In einem Interview mit Axios bezeichnete er die generative KI als einen Tsunami: „Wir können sie entweder überstehen oder von ihr ausgelöscht werden.“) Farhad Manjoo, Kolumnist der Times, erzählte, dass er ChatGPT bereits für Arbeiten in Moll nutzte unterstützende Wege, die sich für ihn hilfreich und ethisch anfühlten: Brainstorming von Übergängen; er erinnerte sich an Worte, die ihm entgangen waren; „loshängen“.

Eine Variante dieser Strategie wird in Nachrichtenredaktionen ganz natürlich zum Tragen kommen, wenn Mitarbeiter wie Farhad – ein Meinungskolumnist, kein investigativer Reporter – mit neuen Tools experimentieren, die ihnen die Arbeit erleichtern, und sich dabei ein paar Rechen leisten. Das Story-Generierungstool „Genesis“ von Google ist ein umfassenderer Ausdruck dieses Ansatzes. Als Software, die versucht, ausgewählte und zumindest theoretisch neuartige Informationen in eine nachrichtenähnliche Form zu synthetisieren, verspricht sie, einen wichtigen Schritt bei der Produktion von Geschichten zu ersetzen oder zu rationalisieren. (Es wäre nicht das erste Mal, dass Google die Praxis des Journalismus teilweise automatisiert: Viele Geschichten, große und kleine, nachlässig und sorgfältig berichtet und verfasst, beginnen mit einer Google-Suche.)

Eine optimistische Theorie über Tools wie dieses besagt, dass sie bestimmte journalistische Abläufe einfach produktiver machen, indem sie reibungslose Prozesse – Tippen, Transkription, vielleicht sogar das Rätseln über die Struktur – teilweise automatisieren und Ressourcen freisetzen, um beispielsweise die eigentliche Berichterstattung zu verfolgen. Ein großer Teil dessen, was Nachrichtenorganisationen veröffentlichen, einschließlich der schrittweisen Enthüllungen neuer oder seltener Informationen, die am häufigsten mit „den Nachrichten“ in Verbindung gebracht werden, wird in ziemlich standardisierten Formen und Stilen präsentiert, so die Annahme. Neuartig und wertvoll werden die Nachrichten durch das, was sie preisgeben, und nicht durch den besonderen Stil ihrer Offenbarung oder Verbreitung.

Diese Denkrichtung stellt Tools wie ChatGPT in ein Spektrum früherer Formen der Automatisierung im und um das Nachrichtengeschäft, von Textverarbeitungsprogrammen und Rechtschreibprüfungen bis hin zu Internet-Publishing und sozialen Medien; Es vertritt auch eine idealistische Sicht auf den Journalismus und seine Funktion in der Welt. Es geht auf Bedenken hinsichtlich Genauigkeit, Voreingenommenheit und Plagiat ein, indem es die letzte Rolle des menschlichen Autors betont, der meiner Meinung nach zu einer Art Redakteur oder Prüfer für Inhalte wird, die nicht von, sondern mit Hilfe von KI-Tools erstellt wurden.

Dieser Optimismus beruht auf einigen unterschiedlichen Annahmen. Erstens werden sich ChatGPT-ähnliche Tools auf lange Sicht für Reporter als wirklich nützlich erweisen und den Menschen, die neue Informationen über die Welt melden, in einen Kontext setzen und analysieren, eine sinnvolle Hilfe sein – eine Annahme, die an dieser Stelle hilfreich zu sein scheint durch kurze Erfahrungen beim Testen von ChatGPT und eine unglückliche Anfälligkeit für Narrative über unvermeidliche Technologie. Ein weiterer Grund besteht darin, dass an den tatsächlichen Arbeitsplätzen, an denen Journalismus produziert wird, die Zeit und Ressourcen, die durch eine einfachere Produktion von Inhalten frei werden, automatisch beispielsweise dem Verantwortungsjournalismus, der Berichterstattung vor Ort oder was auch immer Nachrichtenmanager gerne sagen, zugewiesen würden sie wollen mehr davon. Aber warum nicht … Personalabbau? Höhere Erwartungen an das Gesamtvolumen der produzierten Inhalte? In einer Zeit, in der viele Nachrichtenredaktionen unter Vertriebs- und Umsatzkrisen leiden – Probleme, bei denen generative KI keine offensichtliche Hilfe bietet – ist die Kostensenkung der offensichtlichste Nutzen für jede Form der Automatisierung.

Wenn Manjoo den Einsatz generativer Werkzeuge als „das Tragen eines Jetpacks“ beschreibt, beschreibt er den Prozess, sie zu seinen eigenen Bedingungen in einem beruflichen Kontext zu nutzen, wo die meisten anderen Menschen – Manager, Kollegen, Kollegen – dies nicht tun. Es ist interessant! Seit der Veröffentlichung von ChatGPT haben Erstanwender von Büroangestellten in verschiedenen Branchen ähnliche Erfahrungen gemacht und erklärt, wie die Möglichkeit, das Schreiben von E-Mails oder grundlegende Programmieraufgaben auszulagern, Zeit und Energie gespart hat. Es ist vielleicht auch flüchtig. Längerfristig werden es nicht die Arbeitnehmer sein, die darüber entscheiden, wie neue Produktivitätstools eingesetzt werden oder wie potenzielle Produktivitätssteigerungen absorbiert werden – es werden die Verantwortlichen für das Nachrichtengeschäft sein, die ihre eigenen Prioritäten setzen, um es so auszudrücken sanft, richten sich nicht immer nach denen ihrer Mitarbeiter.

Theorie 3: KI verschluckt den Journalismus

Die automatisierungsorientierte Nachrichtenredaktion wird einen fruchtbaren Boden für Arbeitskonflikte bieten, da sich Arbeitsplätze durch den Einsatz neuer Maschinen und durch veränderte Erwartungen des Managements subtil – oder vielleicht auch schnell – verändern. Da es sich sowohl um ein tatsächliches Phänomen als auch um einen bedrohlichen Diskurs handelt, hat die Automatisierung dazu tendiert, den Eigentümern und dem Management Einfluss zu verschaffen, und es ist nicht klar, warum wir dieses Mal etwas anderes erwarten sollten. KI war nicht der primäre Beweggrund für die Streiks bei WGA und SAG-AFTRA, aber sie ist zum Kernthema des Streits geworden, teilweise aufgrund offener Fantasien von Studiomanagern über den Austausch von Autoren und Schauspielern.

Im Journalismus scheint es jedoch, als könnte sich zwischen Nachrichtenorganisationen und Technologieunternehmen – zwischen Eigentümern und Eigentümern – ein früher Kampf um Einflussmöglichkeiten und KI in Form von Klagen und Vereinbarungen zum Teilen von Inhalten entfalten. Die Berichterstattung von Semafor, wonach ein Konsortium von Nachrichtenorganisationen eine Entschädigung in Milliardenhöhe von KI-Firmen verlangt, impliziert einige interessante Vorhersagen seinerseits. Nehmen wir an, das Konsortium bekommt es – eine Rechtsfrage ohne klaren Präzedenzfall – und das von Google und Microsoft finanzierte OpenAI zahlt am Ende hohe Gebühren, um die Inhalte von Nachrichtenorganisationen für Schulungen oder als Quelle neuer Informationen zu nutzen, um ihre Produkte auf dem neuesten Stand zu halten. Was ist in diesem Szenario aus der Nachrichtenbranche geworden? Produzieren Nachrichtenorganisationen immer noch Inhalte, die die Leute lesen können, und erlauben sie nur gefräßigen Technologieunternehmen, diese aufzunehmen und daraus zu lernen? Oder ist die Bereitstellung von Inhalten für KI-Unternehmen spezifischer und bewusster, indem Reporter den Modellen hochwertige Informationen – Zitate aus Quellen, Informationen aus realen Berichten, Dokumente, die sonst nicht öffentlich zugänglich gemacht werden – zur Verfügung stellen, um sie an anderer Stelle neu zu verpacken?

Dies würde Nachrichtenorganisationen zu verkleinerten Nachrichtendiensten machen, ohne dass tatsächlich ganze Geschichten für die Verbreitung geschrieben werden müssten – sie würden lediglich Lücken für einen noch zu bestimmenden KI-gestützten Nachrichtenproduktionsapparat füllen. Funktionell würde es sie auch ein bisschen wie die Web-Scraper machen, die KI-Firmen bereits zum Aufbau ihrer Trainingssets verwenden, und die Jobs ihrer Reporter eher denen der Armeen von Auftragnehmern ähneln, auf die KI-Firmen bereits angewiesen sind, um ihre Produkte funktionsfähig zu halten.

Ein Ergebnis in dieser Richtung – Nachrichtenorganisationen werden zu Schulungsassistenten und Datenlieferanten für KI-Giganten – scheint, trotz oder vielleicht gerade wegen der großen Nachfrage, eine vollständige Dominanz durch Technologieunternehmen und die Auslöschung der Medien als eigenständige Branche zu erwarten. Medieneigentümer scheinen eine Art Fantasy-Überarbeitung des Social-Media-Zeitalters anzustreben, in dem ihre Unternehmen zwar immer noch an den Rand gedrängt werden, aber zumindest bezahlt werden. Wenn man es als juristischen Schachzug versteht, überschätzt es möglicherweise den Wert von Nachrichtenorganisationen für Unternehmen, die Allzweck-Textgenerierung verkaufen und über zahlreiche andere Materialien verfügen, aus denen sie schöpfen können. Wenn ein mögliches Ziel darin besteht, dem unerlaubten Story-Scraping ein Ende zu setzen, ist das großartig, aber die Chancen stehen gut, dass Google, das wahrscheinlich fortschrittlichste Web-Crawling-Unternehmen der Welt, einen Weg findet, das zu bekommen, was es braucht, um kompetente Suchtexte auszuspucken .

Wie viele Diskussionen über KI bieten diese Ansätze spekulative Lösungen für spekulative Probleme. Sie sind zwar nicht gerade schön zum Nachdenken, aber immer noch weniger düster als die Situation direkt vor den Nachrichtenredaktionen im Jahr 2023. Ebenfalls abwesend ist die Öffentlichkeit – die Leserschaft, die Menschen, die theoretisch durch den Journalismus bedient, erfreut oder zum Handeln gezwungen werden die kommenden Jahre. Wie viel Automatisierung wollen sie in ihrem Journalismus? Wie viel glauben sie zu wollen? Wie viel wollen sie wollen? Menschen konsumieren Nachrichten und engagieren sich aus allen möglichen Gründen für Nachrichtenorganisationen, einige bewusster als andere: Langeweile; ein Gefühl der Verantwortung; ideologische Verpflichtungen; Hoffnung; Furcht; Rachsucht; sich schlau fühlen; wütend werden. Der Erfolg der Times ist sicherlich zum Teil auf ihr unvergleichliches Paket an qualitativ hochwertigen Nachrichteninhalten zurückzuführen, aber er kann nicht vollständig verstanden werden, ohne im Grunde eine soziologische Analyse der amerikanischen Liberalen und ihrer Konsumgewohnheiten durchzuführen. Könnte ChatGPT eine plausible Thomas-Friedman-Kolumne erstellen? Absolut. Würden seine vielen Fans es lesen und dafür bezahlen wollen, wohlwissend, dass die sorgfältig gemischten Metaphern von einer Software generiert wurden, die auf seinen Archiven trainiert wurde? Ich bezweifle es ernsthaft! (Die grundlegende Unerkennbarkeit der Motivationen des Publikums ist im Kontext von Hollywood genauso kompliziert. Ist das Kopieren und Automatisieren des Abbilds eines Schauspielers räuberisch? Offensichtlich. Wird es etwas hervorbringen, was die Leute sehen, hören oder worüber reden wollen? Weniger klar. Werden Hollywood-Führungskräfte nachgeben Ist es trotzdem ein Versuch? Darauf können Sie wetten.)

Einige eng gefasste Aspekte der Nachrichtenproduktion lassen sich wahrscheinlich leichter automatisieren, als Skeptiker vermuten oder zugeben. Bloomberg nutzt seit Jahren KI-Tools, um die grundlegende Finanzberichterstattung zu optimieren, und Nachrichtendienste verwenden seit mehr als einem Jahrzehnt Story-Generatoren, um Sportrückblicke zu verfassen und Gewinnberichte zusammenzufassen. Eine einfache Zusammenfassung ist nicht gerade glamourös, aber sie ist nützlich und erklärt einen Großteil dessen, was die nachrichtenkonsumierende Öffentlichkeit tatsächlich liest.

Unvermeidliche Versuche, den Rest zu automatisieren, werden jedoch wahrscheinlich mit der grundsätzlichen Unordnung des Journalismus als Konzept und als Praxis kollidieren – das heißt mit der Veröffentlichung und umstrittenen Kontextualisierung von Informationen, die noch nicht im Internet verfügbar sind in einen Trainingssatz gerollt oder automatisch zu einem aggregierten Nachrichtenstummel synthetisiert. Diese Kollision ist kein leicht vorhersehbares oder zu kontrollierendes Szenario. Ein unterschätztes Risiko besteht darin, dass sich Verlage bei dem Versuch das Leben nehmen.

Theorie 1: KI ersetzt JournalismusTheorie 2: KI verbessert den JournalismusTheorie 3: KI verschluckt den Journalismus