KI und kein Zurück?! Wie die Wissenschaft sich abhängig zu machen droht
Mal schnell einen Text mit ChatGPT zusammenfassen. Ein Literaturverzeichnis mit einem Klick in die richtige alphabetische Reihenfolge bringen und entsprechend den formalen Vorgaben vereinheitlichen. Einen Text auf Grammatik und Rechtschreibung hin prüfen, ja, vielleicht sogar stilistisch redigieren lassen. Eine Passage in eine Sprache übersetzen, die wir selbst nicht 100%ig beherrschen. Eine Grafik für eine Präsentation generieren. All das ist nur ein winziger Ausschnitt der Möglichkeiten, die uns die Nutzung von KI in der Wissenschaft bietet. In erster Linie ein Grund zur Freude und nicht zur Sorge, schließlich nimmt uns die KI einiges an unliebsamer Arbeit ab und wir können immerhin selbst aus freien Stücken darüber entscheiden, wie genau wir KI-Tools beim Forschen, Lehren und Lernen einsetzen wollen — oder etwa nicht?
Im Januar habe ich gemeinsam mit Maximilian Mayer in der FAZ dargelegt, warum uns als Wissenschaftscommunity insbesondere durch unsere Nutzung kommerzieller KI-Tools Abhängigkeiten drohen, die sich nicht ohne Weiteres wieder auflösen lassen. In der Zwischenzeit ist einiges passiert: Maximilian Mayer und ich haben gemeinsam mit Benjamin Paaßen das Netzwerk KIAuBi (KI und digitale Autonomie in Wissenschaft und Bildung) gegründet, in dem wir genauer erforschen, inwiefern KI-Nutzung die digitale Autonomie im Wissenschafts- und Bildungsbereich gefährdet und was sich unternehmen lässt, um sie zu bewahren. Am morgigen Mittwoch sprechen wir dazu auf dem University Future:Festival 2024. Inzwischen ist zudem ein Aufsatz von mir erschienen, in dem ich mir die drohenden Abhängigkeiten einmal genauer ansehe. Wenn wir als Wissenschaftscommunity die Chancen von KI selbstbestimmt nutzen wollen, ist es an der Zeit, die verschiedenen Arten von Abhängigkeiten gemeinsam zu reflektieren — und abzuwägen, welche wir wie eingehen wollen und welche nicht. Mit dem heutigen Newsletter möchte ich dazu einen Anstoß geben.
Alternativlose Verträge
Eine offensichtlich drohende Abhängigkeit, die die KI-Nutzung in der Wissenschaft mit sich bringt, ist vertraglicher Natur. Durch Lizenzen, Abonnements u.ä. binden sich akademische Institutionen und Individuen an bestimmte Konzerne, um deren KI-Angebote nutzen zu können. Das Gute an dieser Abhängigkeit: Für sich genommen hat sie in der Regel ein Ablaufdatum, denn die Verträge sind zeitlich begrenzt. Jedoch zeigt die Diskussion um Videokonferenz-Tools während der Pandemie, dass Institutionen mit ihrer Entscheidung großen Einfluss auf die Nutzungspraxis ihrer Mitglieder nehmen können. WebEx statt Zoom, Microsoft Teams statt BigBlueButton: Was die Hochschulen und Forschungsinstitutionen eingekauft haben, waren und sind in der Regel die Tools, die ihre Mitglieder hauptsächlich verwenden. Die Nutzung anderer Tools ist hingegen oft mit zusätzlichen individuellen Kosten verbunden, die nicht jede_r aufbringen kann — und mitunter war/ist es sogar untersagt, andere Tools zu verwenden. Hier zeigt sich bereits, dass sich die Entscheidungen der Institutionen für oder gegen bestimmte Tools auf die Nutzungsoptionen ihrer Mitglieder auswirken.
Aber noch ein anderer Aspekt kann schnell zum Problem werden: Verträge bieten den Vertragspartner_innen zwar grundsätzlich die Möglichkeit, sich einvernehmlich über die Vertragsbedingungen zu verständigen. Allein: Wir sehen am wissenschaftlichen Publikationssystem, dass das ab einem gewissen Punkt nicht mehr ohne Weiteres machbar ist. Dort sind Großverlage seit geraumer Zeit derart mächtig, dass sie einseitig die Vertragsbedingungen diktieren können — etwa, indem sie irrsinnig teure Abo-Preise aufrufen —, und die Hochschulen und Forschungseinrichtungen haben kaum noch eine Wahl: Wollen sie ihren Mitgliedern Zugang zu aktueller Forschung ermöglichen, dann müssen sie sich auf diese Bedingungen einlassen. Dass die Umstellung auf Open Access so, wie sie aktuell geschieht, den Zugang zu Publikationen für alle Menschen oftmals um den Preis des Zugangs zum Publizieren erkauft, soll hier heute nicht das Thema sein. Vielmehr möchte ich genauer darauf eingehen, wie es zu einer solchen Machtasymmetrie kommen kann — dahinter stehen nämlich Abhängigkeiten anderer Art, die ich als wettbewerbliche Abhängigkeiten bezeichnen möchte.
Vom wissenschaftlichen Publikationssystem lernen, wie es mit KI nicht geht
Die Großverlage im wissenschaftlichen Publikationssystem profitieren davon, dass das Publizieren in ihren Journals Reputation verspricht. Wer keine unbefristete Stelle in der Wissenschaft hat und eine anstrebt, tut gut daran, auf entsprechende prestigeträchtige Journals zu setzen. In solchen Journals zu publizieren, kann in Bewerbungs- und Berufungsverfahren den entscheidenden Unterschied machen, wenn es darum geht, sich gegen Mitbewerber_innen durchzusetzen. Auch für die Akquise von Drittmitteln sind Publikationen in renommierten Journals relevant, wodurch sowohl befristet als auch unbefristet Beschäftigte kaum darauf verzichten können. Und schließlich wollen wir alle, dass unsere Aufsätze rezipiert und zitiert werden (in Disziplinen, in denen Impact Factors eine Rolle spielen, ist das besonders entscheidend). Dank des Prinzips ‚publish or perish‘ werden wir alle förmlich zugeschmissen mit Publikationen. Wer seine Forschung in reputationsstarken Journals unterbringt, erhöht zumindest gefühlt die Wahrscheinlichkeit, dass das Publizierte von der Fachcommunity auch zur Kenntnis genommen wird.
Das alles sind Anreize für Publizierende, in Journals zu veröffentlichen, die bei Großverlagen erscheinen. Und damit werden zugleich Anreize für die Institutionen erzeugt, entsprechende Journals zu abonnieren. Denn wenn die Gründe, dort zu publizieren, bestechend sind, ist davon auszugehen, dass wichtige Forschungsergebnisse vorzugsweise in diesen Journals erscheinen. Forschungsergebnisse, zu denen die Forschenden an der eigenen Institution einen Zugang brauchen, um ihre Forschung unter Berücksichtigung des state of the art betreiben zu können. So ist es auch zu erklären, dass die Großverlage in den vergangenen Jahren immer höhere Preise aufrufen konnten, die selbst für zahlungskräftige akademische Institutionen zu teuer waren und sind.
Wir haben es hier mit einer mehrfachen wettbewerblichen Abhängigkeit des Wissenschaftssystems von den Großverlagen zu tun: Im Wettbewerb um Reputation, Stellen, Drittmittel, Rezeption und Zitationen sind zunächst die Wissenschaftler_innen mehr oder weniger abhängig von den Großverlagen. Zugleich können Institutionen im Wettbewerb mit anderen Institutionen (bei der Vergabe von Fördermitteln, Rankings etc.) praktisch nur mithalten, wenn ihre Mitglieder in den Journals der Großverlage publizieren — und zugleich Zugriff darauf haben, um aktuelle Forschungsergebnisse berücksichtigen zu können.
In Sachen KI könnten wir schon bald mit einem analogen Problem konfrontiert sein: Sollte das Angebot bestimmter Tech-Konzerne alternativlos und unverzichtbar werden, so könnten auch diese Konzerne fortan einseitig die Vertragsbedingungen festlegen. Und sowohl die Institutionen als auch die Individuen könnten kaum Abstand davon nehmen, sich auf diese Bedingungen einzulassen: Wer nicht mitmacht, droht im Wettbewerb abgehängt zu werden. Greifen wir als Wissenschaftscommunity jetzt nicht ein, dann riskieren wir, ohne Not Tech-Konzerne mit einer derart immensen Macht auszustatten, dass sie zukünftig die Preise für die Nutzung ihrer Tools, deren ethische Grundlagen usw. beinahe beliebig ausgestalten können, während wir die daraus resultierenden fragwürdigen Angebote kaum noch ausschlagen können.
Das Problem ergibt sich auch hier nicht allein daraus, dass wir Verträge mit den Konzernen schließen. Entscheidend ist vielmehr, dass wir durch unser Zutun auch dafür sorgen, dass wir das Schließen dieser Verträge kaum noch vermeiden können. Der Grund sind zwei weitere Arten von Abhängigkeiten, die sich derzeit einzuschleichen drohen: Abhängigkeiten durch Deskilling und Abhängigkeiten durch die Stärkung kommerzieller Angebote mittels deren Nutzung. Was hat es damit auf sich? Abhängigkeiten der ersten Art resultieren daraus, dass bestimmte Fähigkeiten nicht mehr genutzt, unter Umständen sogar gar nicht erst erlernt werden. Wer etwa Forschungsfragen mit ChatGPT generieren oder sich eigene Texte mithilfe von KI-Tools gliedern und übersetzen lässt, könnte sich allzu schnell abgewöhnen, entsprechende Tätigkeiten selbst zu vollziehen. Werden diese Möglichkeiten von KI durch Lernende genutzt, verpassen die im schlimmsten Fall die Chance, sich wichtige Skills anzueignen (ein Aspekt, der — anders als die Sorge vor einer KI-bedingten Allgegenwart studentischer Plagiate — bislang eher untergeht). Wenn wir davon ausgehen, dass wissenschaftliches Schreiben nicht allein der Textproduktion dient, sondern einen Teil des Denkprozesses ausmacht, ist das eine bedenkliche Konsequenz der Nutzung von KI-Tools.
Abhängigkeiten der zweiten Art betreffen den Vorsprung, den kommerzielle KI-Tools durch unsere ausgiebige Nutzung erhalten — darauf waren Maximilian Mayer und ich auch schon in unserem FAZ-Beitrag zu sprechen gekommen. Das Problem: Füttern wir die KI-Tools mit unseren oftmals wertvollen Prompts und Daten aus dem wissenschaftlichen Kontext, machen wir sie damit immer besser. Damit wird es zugleich immer schwieriger, eigene KI-Lösungen für den Wissenschaftsbereich aufzusetzen, die mit den kommerziellen Tools noch mithalten können. Die aber wären wünschenswert, damit wir nicht Vergleichbares erleben wie mit dem wissenschaftlichen Publikationssystem, indem wir erneut Großkonzerne dazu ermächtigen, maßgeblich auf die Ausgestaltung von Forschung, Lehre, Administration und Wissenschaftskommunikation Einfluss zu nehmen — und daraus auch noch in groteskem Umfang Profit zu schlagen.
KI nutzen und Autonomie schützen sind keine Gegensätze
Wenn wir die Chancen, die KI bietet, in der Wissenschaft verantwortungsvoll nutzen wollen, gilt es daher, grundlegende Fragen zu diskutieren. Wie lassen sich am besten Eigenlösungen für den Wissenschafts- und Bildungsbereich aufsetzen? Welche Tätigkeiten sind in Forschung und Lehre unverzichtbar, nicht zuletzt im Interesse guter wissenschaftlicher Praxis — und welche können ohne nennenswerte Probleme oder Verluste an KI delegiert werden? Welche Fähigkeiten machen unsere jeweiligen Fächer im Kern aus — und sollten daher im Studium erlernt und erprobt werden, statt KI-Tools zur Hilfe zu nehmen? Welche Fehlanreize im Wissenschaftssystem gilt es auszuräumen, damit sie nicht noch weiter durch KI befeuert werden? Wie kann eine Nutzung von KI aussehen, die digitale Autonomie wahrt, statt sie zu beschneiden? Wollen die Akteur_innen im Wissenschaftssystem ihrer Verantwortung gerecht werden, dann wird es allerhöchste Zeit, diese Fragen zu diskutieren — in Arbeitsbereichen, Instituten, universitären Gremien, Rektoraten und Präsidien, auf Länder- und Bundesebene. Je länger wir noch damit warten, desto stärker werden die Abhängigkeiten, in die wir uns verstricken, und desto schwieriger wird es, sich daraus wieder zu befreien.
Wir freuen uns darauf, diese Debatte beim University Future:Festival weiter voranzutreiben, damit wir in 10 Jahren nicht die gleichen Diskussionen über KI führen müssen wie die zu den DEAL-Verträgen im wissenschaftlichen Publikationssystem.