ONLINE-MÄNNERMAGAZIN

SPIELE

Einstein mit einer Steinaxt: Wer tötet die Zukunft der KI?

Als Albert Einstein seine Relativitätstheorie entwickelte, tat er das nicht im luftleeren Raum. Er baute auf dem Wissen anderer auf. Er studierte Maxwell, um das Licht zu verstehen, las Lorentz, um die Kontraktion bewegter Körper zu begreifen, und wandte sich Poincaré zu, um das Relativitätsprinzip zu erfassen.

Was haben Einstein und KI gemeinsam?

Als Albert Einstein seine Relativitätstheorie entwickelte, tat er das nicht im luftleeren Raum. Er baute auf dem Wissen anderer auf. Er studierte Maxwell, um das Licht zu verstehen, las Lorentz, um die Kontraktion bewegter Körper zu begreifen, und wandte sich Poincaré zu, um das Relativitätsprinzip zu erfassen. Ohne diese Denker – keine Theorie. Gar nichts.

Jetzt stell dir vor, man hätte ihm gesagt: „Tut uns leid, urheberrechtlich geschützt. Erst fragen, dann lesen.“ Poincaré studieren? Nur mit Genehmigung. Kein Lernen. Willkommen in der Steinzeit.

Künstliche Intelligenz ist unser neuer Einstein

Heute steht die künstliche Intelligenz (KI) genau an diesem Punkt. Sie lernt. Und um zu lernen, muss sie lesen – und zwar viel. Bücher, Artikel, Bilder, Musik – alles. Das ist ihr Lernstoff. Ihre Version von Maxwell und Poincaré.

Das Problem? All diese Inhalte sind urheberrechtlich geschützt. Was bedeutet: Man muss vorher um Erlaubnis fragen. Bei jedem einzelnen Urheber. Millionen von Menschen.

Nick Clegg: „Das ist einfach nicht machbar“

Kürzlich sagte Nick Clegg, ehemaliger Top-Manager von Meta, das, was viele in der Tech-Welt nur hinter vorgehaltener Hand denken:

„Ich verstehe nicht, wie man jeden einzelnen fragen soll. Das ist nicht praktikabel. Und wenn das nur ein Land macht, etwa Großbritannien, dann zerstört es über Nacht seine eigene KI-Industrie.“

Sein Vorschlag? Ein Opt-out-Modell. Wer nicht will, dass seine Inhalte genutzt werden, muss es aktiv ablehnen. Doch damit bleibt die eigentliche Frage offen: Wie soll KI lernen, ohne gegen Regeln zu verstoßen?

Wir stehen an einem Wendepunkt

Das hier ist kein Technik-Detail. Es ist ein kultureller Scheideweg. Auf der einen Seite stehen Millionen von Kreativen, für die ihre Werke Teil ihrer Identität sind. Auf der anderen Seite Tech-Konzerne, die versuchen, denkfähige Maschinen zu erschaffen.

Wenn alles hinter juristischen Hürden verschwindet, bleibt die KI wie ein Höhlenmensch mit einem iPad: mächtiges Werkzeug, aber ohne Wissen. Öffnen wir aber alles, besteht die Gefahr, dass künstlerisches Schaffen entwertet wird – und mit ihm unsere Kultur.

Warum betrifft uns das?

Für Autoren und Künstler geht es um Gerechtigkeit. Für Entwickler um Wettbewerbsfähigkeit. Und für uns alle? Um die Frage, ob KI zu einem Werkzeug für die Menschheit wird – oder zu einem Instrument in der Hand einiger weniger, die sich die Lizenzen leisten können.

Wenn Wissen zur Ware wird, die sich nur Reiche leisten können, dann bekommen wir keine KI, die uns hilft. Sondern eine, die uns überwacht.

Wie menscult.net schreibt, ist es ironisch: Um wirklich intelligent zu werden, muss KI das Gleiche tun wie wir – lesen, verstehen, imitieren. Selbst Einstein war in gewisser Weise ein Plagiator – im besten Sinne des Wortes.

Was nun?

Diese Debatte ist größer als Urheberrecht. Sie entscheidet darüber, ob wir eine offene Zukunft mit lernender KI schaffen – oder Einstein eine Steinaxt in die Hand drücken und ihn fragen, warum er nichts erfindet.

Einstein mit einer Steinaxt: Wer tötet die Zukunft der KI?
×
×

Diese Website verwendet Cookies, um Ihnen ein besseres Surferlebnis zu bieten. Durch die Nutzung dieser Website stimmen Sie der Verwendung von Cookies zu.