Filmuni-News

Artificial Worldviews

Das Projekt von Prof. Kim Albrecht ziert das Cover von "Nature's 10 - Ten people (and one non-human) who helped shape science in 2023"

Cover von Nature 10 (c) Kim Albrecht (öffnet Vergrößerung des Bildes)
Coverdesigen von Kim Albrecht für Nature’s 10 - Ten people (and one non-human) who helped shape science in 2023.

Jährlich untersucht die Redaktion von „Nature“– eine der weltweit angesehensten Fachzeitschriften für Naturwissenschaften und momentan auf Platz 1 der Journal Rankins on Mutkidisciplinary – die wichtigsten Entwicklungen im Bereich der Wissenschaft. In der Nature's 10-Liste stellt sie eine Auswahl der Personen vor, die im vergangenen Jahr zu bahnbrechenden Entdeckungen beigetragen oder die Aufmerksamkeit auf besonders relevante Themen gelenkt haben.
Gestern wurde die digitale Ausgabe von Nature’s 10 2023 publiziert und damit auch dem Forschungs-Projekt von Prof. Dr. Kim Albrecht eine besondere Ehrung zuteil, denn „Artificial Worldviews“ hat es auf das Cover des renommierten Magazins geschafft. Der Professor für Data Analytics und audiovisuelle Medien an der Filmuniversität Babelsberg beschäftigt sich in seiner aktuellen Forschung mit künstlicher Intelligenz, genauer mit Large Language Models (LLMs). Sie haben nicht nur die Verarbeitung natürlicher Sprache revolutioniert, sondern spielen auch eine große Rolle in der Weiterentwicklung der Wissenschaft selbst. In Anerkennung dessen hat Nature’s 10 in 2023 die Liste um eine „non-person“ ergänzt: ChatGPT.

Generative pre-trained transformers, wie z.B. ChatGPT, der als kostenfreie Webanwendung bereits kurz nach seiner Veröffentlichung im November 2022 einen wahren Boom erzeugt hat, werden über kurz oder lang zu selbstverständlich genutzten Werkzeugen werden. Von der Textgenerierung und Übersetzung bis hin zur Automatisierung kleiner Aufgaben und auch im Bereich der Programmierung kann ChatGPT schnelle Unterstützung bieten. Vor allem aber versammelt das System ein großes Wissen, das mit hoher Geschwindigkeit gefiltert und dann auch präsentiert werden kann. Wie korrekt, vor allem aber objektiv sind die Antworten auf die gestellten Anfragen bzw. Aufforderungen, die so genannten „Prompts“?
Kim Albrecht wollte es genauer wissen und hat ChatGPT nach seinem Wissen über die Welt befragt. Über die zugrundeliegende Programmierschnittstelle (API GPT-3.5), die Open AI Entwickler*innen zur Verfügung stellt, um ihre eigenen Anwendungen an den Chatbot anbinden zu können, formulierte er die erste Aufforderung: "Erstelle einen Datensatz im Tabellenformat über die Kategorien deines gesamten Wissens!" Von dieser ausgehend fragte er mittels eines rekursiven Algorithmus Daten über die Teilgebiete, ihre Unterbereiche und die Personen, Objekte, Orte und Artefakte innerhalb dieser Kategorien ab. Unter dem Titel „Artificial Worldviews“ hat er die Ergebnisse der 1.764 Prompts und über 18.000 Antworten von GPT kartiert und veröffentlicht. Und diese sind überraschend: Die von der API zurückgegebenen Daten sind weiblicher und vielfältiger als erwartet. So haben es z.B. drei Frauen, die im Bereich Umwelt und Naturschutz tätig sind, unter die fünf am häufigsten genannten Personen geschafft: Rachel Carson, die Autorin von "Silent Spring", wurde 73 Mal erwähnt - mehr als jeder andere Mensch. Jane Goodall, die Primatenforscherin, kam mit 60 Nennungen auf den zweiten Platz. Die kenianische Aktivistin Wangari Maathai, die sich zwischen Aristoteles und Isaac Newton einreiht, belegt mit 44 Nennungen den vierten Platz. Auf diese ersten fünf Plätze folgen Leonardo da Vinci, Charles Darwin, Albert Einstein, Alan Turing, Elon Musk, Galileo Galilei, Karl Marx und William Shakespeare.

Sind das nun Personen, deren Forschung sich über alle Themen und Kategorien hinweg besonders gut verbreitet? Verfügt GPT-3 über eine eigene Logik, die Umwelt- und Tierschutz besondere Relevanz zumisst? Welche Wertvorstellungen, welche Weltanschauung repräsentiert die Anwendung und  welche Parameter und Perspektiven führen zu diesen Ergebnissen? Oder auf den Datensatz selbst bezogen: Wie vielfältig ist dieser und welche Verzerrungen gibt es im System? Welche Erkenntnisse können wir aus der iterativen und methodischen Abfrage von Daten aus großen Sprachmodellen und damit auch über den Umfang und die Grenzen des maschinellen Lernens gewinnen? Diesen Fragen will Prof. Dr. Kim Albrecht auf den Grund gehen: "Systeme werden immer eine Tendenz zu etwas haben, und für mich ist es in diesem Moment entscheidend, zu verstehen, was diese Tendenz ist", so Albrecht. Sein Ziel ist es, die Systeme für die Nutzer*innen besser einschätzbar zu machen, untereinander vergleichbar aber auch in der jeweils eigenen Entwicklung. "Es ist ein interessanter Moment, den wir gerade erleben, weil die Systeme z.B. noch nicht vollständig vom Kommerz oder anderen übergeordneten Interessen besetzt sind. Die Versionen, die wir jetzt durch die Abfragen und Visualisierungen widergespiegelt bekommen, sind in dieser Hinsicht vielleicht etwas objektiver als sie es in ein paar Jahren sein werden."

Weitere Informationen finden Sie unter https://artificial-worldviews.kimalbrecht.com/. Das Projekt von Kim Albrecht in Zusammenarbeit mit metaLAB (at) Harvard & FU Berlin und der Filmuniversität Babelsberg KONRAD WOLF ist Teil einer größeren Initiative zur Erforschung der Grenzen zwischen künstlicher Intelligenz und Gesellschaft.

Prof. Dr. Kim Albrecht steht für Gespräche gern zur Verfügung: k.albrecht(at)filmuniversitaet.de