KI-Content vs. Qualitäts-Journalismus
Künstliche Intelligenz: Hype, Mystifizierung, Urheberrecht
Viele nutzen KI, um schnell einen kleinen „Fachbeitrag“ oder einen bestimmten Textabschnitt zu verwenden. Der Hype um die KI wird im Bereich der Content-Generierung geboostert. Die Verwendung von Fast-Content erscheint zwar praktisch, ist aber aus Sicht anderer, zumeist Urheber:innen, unfair. Die Rechtslage ist ungeklärt. Jurist:innen betonen die Risiken und geben beim Urheberrecht keinesfalls Entwarnung. Kommt da womöglich eine Abmahnwelle auf uns zu?
Kann die künstliche Intelligent den Intellekt und die Fantasie eines Menschen in Kürze real imitieren? Bildquelle: Pixabay
Kann die künstliche Intelligent den Intellekt und die Fantasie eines Menschen in Kürze real imitieren? Bildquelle: Pixabay
Die Generation X der Jahrgänge 1965 bis 1980 (Slacker), kennen noch die Zeit vor der Digitalisierung. Was die Menschen damals schon faszinierte, war ein Taschenrechner, der Rechenergebnisse sofort generierte, für die sie selbst teils viele Minuten rechneten. Diese Faszination blieb. Der Algorithmus auch?
Was unterscheidet KI von einfachen Algorithmen?
Kreativität: Natürliche Authentizität toppt künstliche „Intelligenz“
In diesem Beitrag fokussieren wir auf künstlerische Assets wie Grafikdesign, Bilder, Konzepte und Ideen – vor allem auf Content! Natürlich ist das Thema generativer und adaptiver KI sehr viel größer: Zu groß für eine ganzheitliche Betrachtung an dieser Stelle. So gibt es Bereiche, die nützlich erscheinen. Andere erzeugen derzeit noch mehr Fragen als Nutzen.
Wir beschäftigen uns mit Text-Generatoren und/oder hochwertigen Publikationen,
mit Blick auf vielschichtigen und komplexen Content. Zusammenfassend lässt sich sagen: Wenn ein Sachverhalt in die Beziehung zu anderen, nicht selten auch atypischen Sachverhalten gesetzt wird und dadurch neue Ansätze entstehen (kontextualisierter, intuitiv-holistischer Qualitäts-Content), war der Urheber kein Apparat, sondern ein Mensch.
Schon relativ gut funktionieren der sog. Datenjournalismus, Diverse Chatbot-Anwendungen, Sprachsteuerungen und einiges mehr.
Text-Generatoren: Viel Masse, selten Klasse
Die an der UmDEX-Brancheninitiative teilnehmenden Druckereien zählen zu den fortschrittlichsten Mediendienstleistern in der EU. Die Basis dieser enkeltauglichen und zukunftsfähigen, nachhaltigen Geschäftsstrategien ist die Maxime:
Qualität statt Quantität, Reduktion, Vermeidung und Fokussierung!
Content-KI funktioniert, auch im kreativen Bereich, genau gegenteilig: mehr Mäßigkeit, mehr – sogar sehr viel mehr – Masse und gerade keine Fokussierung. Masse statt Klasse: typisch Kapitalismus. Millionen User:innen freuen sich über Antworten, die aber oft nur bedingt zu gebrauchen sind.
Viele verwenden KI-generierten Content eifrig, ohne das alles auch mal zu reflektieren.
Darum entsteht dieser Tage massenhaft Snackable Content. Oft nur digitale Fragmente, gemixt aus vielen ganzen und hochwertigen, oft zusammenhängenden Inhalten, die Menschen in vielschichtigen und intelligenteren Kontexten längst schon erschaffen haben.
Mit Blick auf die Publizistik kann die KI in Relation zum Qualitäts-Journalismus kaum mehr als Copy & Paste.
Content-KI kann nach wie vor nicht wirklich viel, dafür aber rasend schnell, beispielsweise aus Millionen von Content-Quellen in Sekunden eine Quintessenz generieren, Stichwort crawlen. Apparate subsumieren beim Content Creating ausschließlich, was schon existiert – zumeist nicht einmal aktuell. Eifrig „publiziert“ Lieschen Müller sodann in Sekunden generierte Antworten auf Fragen, die niemand gestellt hat. Damit erzeugt Lieschen gewaltige Stromverbräuche.
Nachfrage nach KI-generiertem Content erzeugt gigantische Energieverbräuche
Trotz – eher: gerade – weil diese Systeme gewaltige Datenmengen crawlen, kommt es zu dem sog. Jevons Paradox: Je effizienter die Systeme werden, desto häufiger werden sie genutzt. Forscher:innen der Vrije Universiteit Amsterdam um Alex de Vries prognostizieren, dass der Energiebedarf von KI-Servern bis 2027 dramatisch ansteigen könnte. Demnach könnte der weltweite Stromverbrauch von KI-Servern bis 2027 um 85 bis 134 Terawattstunden pro Jahr(!) zunehmen. Das entspricht dem Energieverbrauch von Ländern wie den Niederlanden, Argentinien oder Schweden – und das alles für ein Meer aus digitalem Grabbeltisch- und Discount-Content, den ohnehin jeder beziehen kann (hier z.B.: https://chat.openai.com/auth/login) und der uns jetzt (oft ungefragt) massenweise unter die Nase gerieben wird. Zumeist wird diese Maschinerie noch mit schmutziger Kohlekraft betrieben.
Mystifizierung der künstlichen Intelligenz
Die aktuelle Heroisierung des Intelligenz-Begriffes von Algorithmen spielt vorsätzlich denen in die Hände, die mit KI Milliarden, bald schon Hunderte Milliarden Euro jährlich verdienen wollen und wohl auch werden – und schon heute eine enorme Macht und Alleinstellung ausüben, eben auf Basis gigantischer Datenbestände, die sich laufend rasend schnell vergrößern. Nicht selten sind es die Social Media Big-Tech-Konzerne, die kein Interesse mehr an hochwertigem Qualitäts-Journalismus haben, sondern, nicht zuletzt durch KI, neben der Datenhoheit auch eine möglichst weitreichende Meinungshoheit anstreben. Vera Hermes vom Wirtschaftsmagazin „absatzwirtschaft“ appelliert deshalb in einem ähnlichen Kontext:
„Kompensiert Eure Social-Media-Emissionen!“
Die Präsidentin des Messengers „Signal“, Meredith Whittaker, weiß um diese Gefahren und verspricht den Nutzer:innen, dass dieser Messenger nie eine künstliche Intelligenz entwickeln wird oder darauf zurückgreift — der Signal-Messenger bleibe frei von Werbung und trackt auch künftig keine Nutzerdaten so wie andere Social-Media-Datenkraken.
Wer profitiert von der KI ?
Von globaler KI profitieren also zuallererst die Entwickler und Betreiber selbst: Sie bauen die KI-Systeme, schalten sie ein und vermarkten sie subtil aggressiv: Paradoxerweise warnen dieselben Anbieter zeitgleich eindringlich vor den möglicherweise dramatischen Folgen ihrer (und anderer) KI – etwa, dass die „künstliche“ Intelligenz zu einer lebensbedrohlichen Gefahr für die natürliche Intelligenz werden könnte!? Die Superlativen kennen dahingehend kaum Grenzen. Sogar von der „Auslöschung der Menschheit“ ist immer wieder die Rede.
Gefährlich? Bedrohlich? Gar intelligent und menschenähnlich?
Chapeau! Das weckt Begehrlichkeiten bei vielen Anwendern.
Bekannte Autodesigner:innen lassen grüßen, denn: Das Design vieler Autos orientiert sich an der menschlichen Mimik und da ist das böse Antlitz ein echter Verkaufsschlager. Das Resümee von P.M.: „Fiese Fratzen bei Autos sind groß in Mode“
Die Psychologie dahinter? Bad Things sells!
Expert:innen spekulieren, dass bei einigen KI-Anbietern, neben vorgenannten Gefahrenmeldungen, der Intelligenz-Begriff zusätzlich eine gewisse und, wie erwähnt: „gefährliche“ Nähe zu menschlichen Fähigkeiten vermitteln soll – bloß schnell weg vom schnöden Apparate-Image einer Software, die, abgesehen von klar definierten bzw. programmierten Algorithmen sonst nichts kann. Der Trigger hinter der Wortkreation könnte demnach sein:
- Zuordnung: Intelligenz = Mensch
- Unterstellung: Künstliche Intelligenz = Maschine
- = Ableitung: KI = Menschmaschine
Das könnte erklären, warum plötzlich geradezu jeder Kaugummiautomat „intelligent“ bzw. KI-gesteuert sein soll. KI-Experten sehen aktuell kaum Intelligenz bei KI. Doch angeblich steckt auf einmal in vielen Apparaten KI drin, wo doch vor wenigen Monaten nur ein Algorithmus wirkte. Das muss nicht immer wahr sein und KI ist in vielen Anwendungsszenarien häufig noch weit weniger funktionsfähig wie es den Anschein erwecken soll.
Was am KI-Hype derzeit wirklich fasziniert ist der KI-Hype selbst!
Marketing lebt bekannterweise von Übertreibungen und teils auch Superlativen. Das ist bekannt und respektiert. Die von einigen KI-Vermarktern vorsätzlich betonte Nähe zur menschlichen Intelligenz ist tatsächlich aber noch für lange Zeit so weit entfernt wie das Doppelsternsystem Alpha Centauri für Homo sapiens.
Ich würde keinen Vergleich zu Quacksalbern bzw. Scharlatanen auf mittelalterlichen Wochenmärkten zu einigen Big Playern der KI-Szene ziehen wollen, aber Marketing ist Manipulation. Meister des Marketings (manchmal auch der legalen Täuschung) finden sich nicht nur, jedenfalls teilweise, im KI- oder Automobil-Business. Auch die Lebensmittelindustrie spielt hier in der ersten Liga mit. Verbraucherwahrnehmung versus Realität? Das sind oft zwei Welten.
Du bist, was du isst?
Beispiel: Ernährungsexperten der Martin-Luther Universität in Halle haben 2018 rund 12.000 Lebensmittel in Supermärkten getestet (Fleisch, Milch und Eierprodukte). Ernährungsexperte Dr. Toni sagt, dass der Anteil gesunder Lebensmittel minimal sei, ungefähr im Bereich von einem Prozent des gesamten Sortimentes! Das kommt uns angesichts der Werbung auf den Produkten gänzlich anders vor. Doch diese Werbung ist häufig reine Fiktion. Marketing eben.
Wurde da also 11.880 Mal werblich geschummelt, weil diese Produkte als bekömmlich oder gesund deklariert bzw. von den Verbraucher:innen so wahrgenommen werden? Darüber lässt sich diskutieren.
Wirklich „intelligent“ ist oft nur das Marketing, so auch bei gewissen KI-Kampagnen. KI ist kein cooles Geschenk, sondern eine Cash Cow, nicht selten ein Daten-Bagger, den wir freiwillig mit Material füttern.
Unabhängige Expertise: Versachlichung des KI-Rummels
Expert:innen und Wissenschaftler:innen, die dafür honoriert werden, solche „Massenhysterien“ nüchtern und belastbar zu bewerten, entmystifizieren die Mär von der alles könnenden Menschmaschine: völlig unaufgeregt – und ohne dabei die generellen und durchaus weitreichenden Fähigkeiten von Algorithmen und Apparaten oder Funktionen wie Deep-Learning in Frage zu stellen. Zum Beispiel mit solchen Statements:
KI-Systeme sind spezialisierte Werkzeuge, die für bestimmte Aufgaben oder Probleme entwickelt werden.
Die „Intelligenz“ basiert auf Algorithmen und Daten, die von Menschen entwickelt und bereitgestellt wurden.
Im Vergleich zu menschlicher Intelligenz sind KI-Systeme stark begrenzt und können nicht auf die gleiche Weise wie Menschen denken, fühlen, schlussfolgern, kontextuieren, hinterfragen oder mannigfaltig Gedanken und Fragestellungen weiterführen.
Diese besonderen Eigenschaften sind der Urschleim von hochwertiger Publizistik.
Moderne „KI“ wie ChatGPT, Dall E und vergleichbare Systeme beeindrucken mit rein algorithmischen Leistungen. Sie sind in der Lage, snackable Content und Bilder rasend schnell aus Millionen von existierenden Quellen zu extrahieren (crawlen) und zu subsumieren. Sie können Krankheiten vorhersagen, fundamentale wissenschaftliche Prinzipien ableiten und (begrenzt), auch kreativ sein.
Viele Expert:innen würden bei den aktuellen Systemen statt von „künstlicher Intelligenz“ eher von „Machine Learning“ oder „Deep-Learning“ sprechen. Doch „Intelligenz“ ist kein geschützter und nicht einmal ein allgemeingültig definierter Begriff, der den Apparaten mit Vorsatz etwas Mystisches und Zauberhaftes, eine menschenähnliche Superpower verleihen soll.
Was kann KI künftig leisten?
Doch wie schlau sind solche Systeme tatsächlich bzw. wie „intelligent“ können sie in absehbarer Zeit werden?
Prof. Dr. Bert Heinrichs, Arbeitsgruppenleiter am Institut für Neurowissenschaften und Medizin (INM) beim Forschungszentrum Jülich GmbH, resümiert, dass der Versuch, Intelligenz zu imitieren, nur eine Vielzahl von unterschiedlichen Ansätzen der Informatik vereint. Das sog. Deep Learning wird als Basisfunktion von den drei weltweit führenden Forschern der KI: Yann LeCun, Yoshua Bengio und Geoffrey Hinton beschrieben als ein
Computermodell, das aus verschiedenen Verarbeitungsschichten besteht,
um so das Erlernen von Repräsentationen von Daten in mehreren Abstraktionsebenen zu ermöglichen. Abgesehen vom häufig aggressiven Marketing ist da nie die Rede von einem künstlichen Wesen, das über eine eigene Meinung oder gar über ein Bewusstsein verfügt, schon gar nicht auch nur im Ansatz mit dem Menschen vergleichbar. Prof. Dr. Bert Heinrichs:
„Es handelt sich um eine Klasse von Techniken der modernen Informatik – nicht mehr und nicht weniger!“
KI im Marketing: Ohne Daten keine Raten
Auch Dr. Johannes Warter (Apenberg & Partner) relativiert die Begehrlichkeiten, die derzeit auch in der Druckbranche zunehmend geweckt werden: KI sei kein Zauberstab, sagt der Experte in einem Gastbeitrag im Fachmagazin „printmarket“, den man heute ausgepackt, morgen über das eigene Unternehmen schwenkt und im Anschluss grandiose Ergebnisse erzielt. KI sei vielmehr ein Werkzeug auf Basis konkreter Anwendungsfälle, die konkrete Voraussetzungen bedingen. Der Versuch, einen Nagel mit dem Akkuschrauber in der Schrankwand zu versenken, werde nicht funktionieren: Ohne die entsprechenden Schlitze im Nagel (Voraussetzung) fehle dem Akkuschrauber (Werkzeug) der nötige Angriffspunkt. Es existieren also Anforderungen an den Werkstoff, der mit dem Werkzeug be- oder verarbeitet werden soll.
Bei KI seien die Daten der Werkstoff – und diese müssten überhaupt einmal in ausreichender Quantität und Qualität existieren.
Und zwar mit sehr klar definierten Eigenschaften. Fehlten diese Dateiattribute, so wie die Schlitze im Nagelkopf, wäre der Werkstoff in Verbindung mit dem Werkzeug (KI) nicht zu gebrauchen.
Valide Daten zu erzeugen, bleibt also nach wie vor das Nadelöhr.
Für das Marketing werden demnach also viele nützliche Funktionen zunächst nur lokalisiert, die aber nicht in jedem Fall schon funktionieren, generell aber vielversprechend sind. Das Businessmagazin „newbusiness“ zitiert eine Studie „Digital Dialog Insights“ der Hochschule der Medien, Stuttgart, in Zusammenarbeit mit dem Medienvermarkter United Internet Media (UIM), Karlsruhe. Demnach sieht rund die Hälfte der Expert:innen KI als wesentlichen Bestandteil, allerdings in Bezug auf die künftigen Marketing-Strategien. Theoretisch – aber theoretische Logik ist noch keine künstliche Intelligenz.
Das Fachmagazin Deutscher Drucker zitiert Michael Becker, Leiter der Akademie Druck + Medien des Verbands Druck + Medien Nord-West so: „Die menschliche Komponente im B2B-Vertrieb“, ist sich Becker sicher, sei nicht vollständig zu ersetzen; Kreativität, Em- und Sympathie, Charisma, Humor und kommunikative Fähigkeiten können aktuell selbst von fortschrittlichen KI-Tools nur sehr begrenzt nachgebildet und schon gar nicht adäquat ersetzt werden!
Das gilt auch für komplexe Fachbeiträge wie bei diesem, in dem verschiedene Sachverhalte aus unterschiedlichen Perspektiven thematisiert werden.
Künstliche Intelligenz in der grafischen Industrie
Auch in der grafischen Industrie wird mit KI in diversen Anwendungs-Szenarien geworben: Zum Beispiel bewirbt Xerox diverse, wahrlich großartige, aber teils nicht gänzlich neue Funktionen im Druckprozess als KI. Auch Sappi definiert KI als Computersystem, das die menschliche Intelligenz in der Art und Weise, wie es Probleme löst und Entscheidungen trifft, imitiert.
Michael Müller und Christian Haneke von der Sattler Media Group sprechen auf der Website von Druck&Medien viel vorsichtiger über zwei Anwendungsbereiche, die aber noch nicht praktisch funktionieren – auch wieder mangels valider Daten. Was nützt eine Produktionsplanung, wenn eine Agentur die Druckdaten doch erst zwei Tage später liefert und/oder andere Kunden unerwartet extrem dringliche Druckaufträge anfragen?
Verlassen wir die Science-Fiction, bleibt die Frage, was Deep-Learning-Systeme künftig leisten können und wo sie nützlich sind.
„Die menschliche Sprache und das Denkvermögen entfalten ihre volle Kraft durch die systematische Kompositionalität, also die algebraische Kompetenz, neue Kombinationen aus bereits bekannten Bausteinen zu begreifen und zu kreieren. Obwohl sich neuronale Netze in den vergangenen Jahren drastisch weiterentwickelt haben, bleibt die Herausforderung der Systematik nach wie vor ungelöst“, resümiert Dominik Hochwarth auf der Website ingenieur.de. Zwar setzt die in der Studie präsentierte neue Methode „Meta-Learning for Compositionality (MLC)“ neue Maßstäbe, doch das ist alles noch reine Theorie bzw. noch absolute Zukunftsforschung.
Apropos Crawlen: Urheberrecht bleibt großes Risiko
Urheberrechtlich geschützt sind Werke der Literatur, Wissenschaft und Kunst, die eine persönliche geistige Schöpfung darstellen (§ 2 Abs. 2 UrhG). Text- und Data Mining ist die automatisierte Analyse von einzelnen oder mehreren digitalen oder digitalisierten Werken, um daraus Informationen insbesondere über Muster, Trends und Korrelationen zu gewinnen (§ 44b, Abs. 1 UrhG). Dies ist nach § 44b Abs. 3 UrhG nur zulässig, wenn der Rechtsinhaber sich diese nicht vorbehalten hat.
Ein Mixer weiß nicht, dass er Smoothies und eine Pfanne nicht, dass sie Spiegeleier macht.
So begeht auch keine „KI“ mögliche Urheberrechtsverletzungen, die künftig durchaus zu Abmahnwellen großen Ausmaßes führen könnten. KI-Systeme crawlen durch das Internet und bedienen sich an Inhalten, Kunstwerken und Bildern von Urhebern dieser Werke.
KI-Blitzkrieg
Das Ding mit der KI ging so schnell, dass sich bisher noch keine Opposition bilden konnte, um Widerstand zu organisieren. Etwa Journalist:innen- oder Schriftsteller:innen-Verbände, Interessenvertretungen, Anwälte, die Sammelklagen moderieren und so weiter. Doch das wird sich nach allem, was zu lesen ist, in den kommenden Jahren ändern. Dann beginnt ggf. die Suche nach Textpassagen, die so nicht hätten verwendet werden dürfen.
In welchen Umfängen KI-Nutzer:innen KI-generierte Daten wiedergeben dürfen und ob die Text-Snippets etwa durch das große oder kleine Zitatrecht gedeckt sind, bleibt nach einhelliger Ansicht von Jurist:innen derzeit fraglich. So auch die Frage:
Wer kann für Verletzungen von Urheberrechten verantwortlich gemacht werden? Derzeit stehen die Nutzer:innen in der Verantwortung.
Laut einer Umfrage von Bitkom nutzt fast jeder Fünfte z. B. ChatGPT im Job. Eine zentrale Frage im Zusammenhang mit KI-generierten Texten ist, ob diese als persönliche geistige Schöpfungen gelten können, sagt Rechtsanwalt Dr. Sebastian Skradde auf der Website anwalt.de. Zwar sind KI-generierte Texte nicht urheberrechtlich geschützt, doch es könne Ausnahmen geben, sagt der Jurist. Er empfiehlt, eine detaillierte Analyse der jeweiligen Schöpfungsprozesse durchzuführen, um Klarheit über die rechtlichen Aspekte zu gewinnen.
Die Haftung könnte sowohl den Betreiber der KI-Plattform als auch den Nutzer treffen, der die KI zur Erstellung des betreffenden Textes verwendet hat.
Doch wer macht das derzeit schon? Lieschen Müller vermutlich nicht.
In der aktuellen Ausgabe von GESCHAFFT!, dem Kundenmagazin der Druckerei L.N. Schaffrath, kommt der prominente Rechtsanwalt Christian Solmecke zu Wort. Er spricht über das Urheberrecht aus Sicht der Nutzer:innen, z. B. von KI-generierten Texten, weniger über die Rechte der Urheber solcher Inhalte. Er schreibt dort, dass KI-Systeme mit Werken Dritter trainiert werden, die größtenteils Urheberrechtsschutz genießen. Die Verwertung sei aber zumeist „Data Mining“ und jedenfalls für Analyse- und Forschungszwecke erlaubt.
Was ist jedoch mit dem Content, der regelmäßig als „eigene“ Redaktion in einem wirtschaftlichen Umfeld verwendet wird (Werbung, Blog, News etc.)?
Solmecke: „Wenn aber bestimmte »eigentümliche« Merkmale vorkommen (konkrete Motive, einzigartige Formulierungen), kann das durchaus eine Urheberrechtsverletzung darstellen. Dann kommt es darauf an, ob im Einzelfall genügend Abstand zum Ursprungswerk besteht.“
Auch Dr. Daniel S. Huber von der IT-Recht Kanzlei München gibt ganz und gar keine Entwarnung für Texte, die wir der KI entnehmen: Er spricht von unsichtbaren Gefahren der Urheberrechtsverletzungen durch die Nutzung von KI-generierten Texten, Zitat:
„Da eine KI – ganz grob gesagt – nichts vollständig Neues erfindet bzw. erzeugt, sondern vielmehr das Wissen der Welt – soweit es ihr zum Lernen zur Verfügung stand bzw. steht – auf neue Weise komponiert, d. h. neu zusammenfügt,
besteht grundsätzlich die Gefahr, dass zumindest einzelne, ggf. auch nur kleine Bestandteile eines von einer KI generierten Inhalts einem Urheber- oder sonstigen Rechten unterliegen.“
Auch auf der Website Recht 2.0 heißt es: „Selbst, wenn die Rechtslage mangels konkreter Rechtsprechung teilweise unklar ist, lassen sich urheberrechtliche Implikationen bei der Veröffentlichung oder sonstigen Nutzung KI-basierter Werke nicht ausschließen.“ Weiter wird eine eigene Einschätzung von ChatGPT veröffentlicht:
„Es ist ratsam, die Nutzungsbedingungen und Datenschutzrichtlinien von OpenAI zu überprüfen, bevor man ChatGPT verwendet und Texte erstellt oder teilt, die das Ergebnis ihrer Arbeit sind.“
Der Mensch bleibt führend in der Content Champions League
Es mangelt an Rechtssicherheit. Technische Individuallösungen sind teuer und zumeist sehr komplex. In erster Linie fehlen Daten bzw. es mangelt an der Datenqualität, denken wir nur an die enormen und immer noch oft nur theoretischen Chancen beim Programmatic Printing. Viel Theorie, wenig bewährte Praxis. Bei der Generierung von Content führt der KI-Hype aktuell gerade zu leichtfertigen Generierungen von unvollständigen, teils verwirrenden oder sogar falschen Subsumierungen.
Der Mensch ist nur durch seine Fantasie begrenzt. Die KI zwar durch flexible, aber klar definierte Algorithmen.
Resümee: Written by Human!
Wir Leser:innen erkennen intuitiv Authentizität, Nähe, Begeisterung und lokalisieren reale Nähr- bzw. Mehrwerte: Denkanstöße, Inspiration, Wissen oder Trends. Die Intuition, Leidenschaft zu identifizieren, ist uns Menschen, der natürlichen Intelligenz vorbehalten. Diese Intuition kann digital nicht imitiert werden. KI generiert keine durch bestimmte Expertisen und Biografien erzeugte, völlig neue Schlussfolgerungen und Perspektiven. Wenn KI schlussfolgert, dann „nur“ als eine Instant-Summe aller Schlussfolgerungen der Urheber:innen, die bereits (und teils vor Jahren) gefasst wurden.
Menschen bewerten Menschen, auch im Bereich vieler Verlagspublikationen oder z. B. bei Kundenzeitschriften.
Viele Geschäftsbeziehungen bleiben von realen Mensch-zu-Mensch-Interaktionen geprägt. Auf der Suche nach neuen Perspektiven sondieren Menschen die vielschichtigen Gedanken anderer Menschen, anstatt alten Wein in neuen KI-generierten Schläuchen zu konsumieren.
Anhang: Schutz vor künstlicher Intelligenz
Am 19.11.2023 einigten sich die drei größten EU-Staaten nach Informationen der Nachrichtenagentur Reuters auf ein gemeinsames Positionspapier zur Nutzung und Bereitstellung von KI. Zwischen der EU-Kommission, dem Europäischen Parlament und den Mitgliedstaaten wird derzeit über die Regulierung künstlicher Intelligenz verhandelt. Auch die G7-Staaten verhandeln über die Sicherheit von KI-Anwendungen: Demnach sollen KI-Anbieter Risiken ihrer Modelle minimieren und auch entsprechende Inhalte kennzeichnen.
Die Rechtslage bleibt stark fragil, auch für Nutzer:innen von Inhalten
Derweil können sich Urheber von geistigen Werken nur selbst helfen, etwa mit Tools wie „Nightshade“, das die Trainingsmodelle von generativen KI-Tools verwirren kann. Webmaster und Administrator können verhindern, dass die KI mittels Web-Crawler mit Namen wie „GPTBot“ ungefragt Inhalte ihrer Website abschöpft, durch Sperrung in der robots.txt Datei der Website (siehe Anleitung).
Jürgen Zietlow
Datenanalyst, Fachjournalist, Unternehmensberater für nachhaltige Kommunikation
0 Kommentare