Wenn es um Nachhaltigkeit geht, zieht KI meist kritische Blicke auf sich, wegen des hohen Energieverbrauchs von Rechenzentren oder der Abwertung menschlichen Denkens. Mit Dr. Sebastian Rosengrün, der sich als Philosoph und Programmierer in Theorie und Praxis gleichermaßen auskennt, habe ich über KI, Kritik, den Hype und die Chancen gesprochen.
Sebastian, wie kommt man von der Philosophie zur KI?
Ich war schon immer sehr computerbegeistert und habe das immer als mein Hobby gesehen, und Philosophie sozusagen als meine Profession oder als mein Studium. Aber auch in der Philosophie habe ich mich viel mit mathematischer Logik beschäftigt und häufiger mit Leuten aus dem Fachbereich Informatik gemeinsame Projekte gemacht.
Momentan ist KI ein großes Thema und viele Menschen fangen jetzt an, sich damit zu beschäftigen. Wann hast du angefangen?
Mit KI beschäftige ich mich schon länger, also eigentlich schon seit dem Studium. Vor sieben oder acht Jahren habe ich begonnen, mich systematischer mit KI zu beschäftigen, und vor fünf Jahren habe ich dann mein Einführungsbuch bei Junius geschrieben. KI war damals noch kein so großes Thema. Da haben alle eher über Blockchain oder Quantencomputer gesprochen, aber seit zwei, drei Jahren rollt die ganz große Hype-Welle.
Es klingt immer akademisch, aber Philosophie ist auch „Begriffsklärung“. Ist „künstliche Intelligenz“ überhaupt der richtige Begriff?
Ich finde den Begriff ein bisschen unglücklich gewählt, weil er bei vielen Menschen falsche Assoziationen weckt und daher die Debatte verwirrt. In meinem Buch schlage ich vor, KI als einen Sammelbegriff für verschiedene Programmiertechniken zu verstehen, die für verschiedene Anwendungsfälle zum Einsatz kommen, von Natural Language Processing, Machine Learning bis zu Computer Vision.
Mit ChatGPT hat die Debatte um KI einen neuen Höhepunkt erreicht. Kannst du erklären, was dahintersteckt und wie es dazu kam?
Als OpenAI ChatGPT veröffentlicht hat, wirkte es erst mal so, als sei da etwas fundamental Neues entstanden. Neu war aber eher die Anwendung, also die Chatoberfläche. Die großen Sprachmodelle (Large Language Models, LLMs) dahinter gibt es aber schon viel länger. Der Durchbruch von ChatGPT und die neue Qualität der Texte, die es produziert, hängt damit zusammen, dass LLMs inzwischen größere Mengen an Trainingsdaten zur Verfügung stehen und auch die Rechenleistung, die es benötigt, um Sprachmodelle mit Hilfe dieser Daten zu trainieren.

Foto: Frank Nürnberger
Über Sebastian Rosengrün
Dr. Sebastian Rosengrün berät Unternehmen und Institutionen beim verantwortungsvollen Umgang mit KI und forscht als PostDoc an der Universität Augsburg zum Menschenbild der Künstlichen Intelligenz. Im Frühjahr 2025 hat er das AI Impact Lab in Berlin mitgegründet, das Unternehmen unterstützt, KI Compliance als strategischen Wettbewerbsvorteil zu nutzen.
KI hat ja eine schlechte Klimabilanz, warum eigentlich?
Dass KI einen so großen Energiebedarf hat, ist vielen Menschen gar nicht bewusst. Der mit Abstand größte Teil der Energie wird für das Training der Modelle benötigt. Ich brauche extrem viel Rechenkapazität und eigene Rechenzentren dafür, die wiederum eine Menge Strom und Energie unter anderem für die Kühlung der Server brauchen. Mit jeder Abfrage, die ich durchs Internet schicke, verbrauche ich Energie, und ChatGPT verbraucht dabei ca. 30-mal mehr Energie als eine Google-Suche.
Welche Ansätze gibt es, um die Energiebilanz zu verbessern?
Da gibt es verschiedene Stellschrauben, an denen man drehen kann. Das eine ist natürlich, die Rechenzentren energieeffizienter zu machen und sie im besten Fall mit erneuerbaren Energien zu betreiben. Aber als Entwickler kann man schauen, den Programmiercode schlanker zu machen und dadurch weniger Rechenoperationen und weniger Strom zu benötigen. Das Green Software Movement ist eine Bewegung, die sich mit so etwas beschäftigt. Und als User kann man sich überlegen, ob man wirklich für jede kleine Recherche gleich auf das größte Reasoning-Modell zurückgreifen muss.
KI nachhaltiger zu machen ist die eine Sache, aber kann man mit Hilfe von KI auch beispielsweise ökologische Probleme besser angehen?
Die schwierige Frage ist ja immer, ob die Technik Schuld an unseren Problemen oder eben die Lösung für sie ist. Die Antwort liegt vermutlich meistens irgendwo in der Mitte, und man muss sich die konkreten Anwendungsfälle anschauen. Der Einsatz von KI ist überall dort gut und sinnvoll, wo es darum geht, große Datenmengen auszuwerten und darin Muster zu erkennen. Das kann man beispielsweise dafür nutzen, um Modelle und Prognosen zu erarbeiten, um die Auswirkungen des Klimawandels besser zu verstehen.

Der Einsatz von KI wirft viele ethische Fragen auf. Welche interessiert dich am meisten?
Mich beschäftigt am meisten die Frage, wie KI unsere Gesellschaft und unser Menschenbild verändert. Im aktuellen Diskurs geht es meistens darum, dass KI vermeintlich immer menschlicher wird. Meine These ist, dass unser Menschenbild immer technischer wird und wir uns immer stärker entlang technischer Maßstäbe verstehen.
Was ist ein guter Weg oder eine gute Haltung, um sich mit KI auseinanderzusetzen? Braucht es die kritische Distanz oder das Staunen und Ausprobieren?
Ein bisschen von beidem, würde ich sagen. Erstmal ist es wichtig, offen und neugierig zu sein, denn es hat keinen Sinn, sich in seinem stillen Kämmerlein einzuschließen und zu hoffen, dass der KI-Hype vorbeizieht. Sicher ist, dass KI gekommen ist, um zu bleiben, und unsere Gesellschaft verändern wird. Neugierde, Ausprobieren und Tatendrang – das trägt auch dazu bei, dass man sich mit den neuen Tools und ihren konkreten Einsatzmöglichkeiten beschäftigt. Das hilft wiederum, richtig einzuschätzen, wo KI sinnvoll und notwendig ist und wo nicht.
Das ist interessant, denn oft entsteht ja der falsche Eindruck, „Kritik“ sei ein distanziertes, leicht nörgelndes „Über-etwas-Sprechen“. Du bist eher für eine Form kritischer Neugierde.
Unbedingt, und ich würde sagen, dass Bildung dafür eben ganz wichtig ist, um im praktischen Umgang so ein kritisches Urteilsvermögen auch ausbilden zu können. Das muss gestärkt und auch in der schulischen Bildung verankert werden. Ich halte zum Beispiel nicht viel vom Begriff „digitale Ethik“, weil das immer so klingt, als würde man fernab der Praxis ein Regelwerk entwerfen, an das man sich halten muss. Dabei ist Ethik etwas, das man macht und zu dem man gelangt, indem man sich mit den Dingen auseinandersetzt. Dafür sind auch Gespräche und Diskussionen wichtig. Kritik bedeutet, Unterscheidungen treffen zu können, und das ist eigentlich nichts Negatives.
Um den verantwortungsvollen Umgang mit KI zu fördern und Menschen weiterzubilden, hast du vor Kurzem das AI Impact Lab gegründet. Was macht ihr genau?
Genau, ich habe das AI Impact Lab gemeinsam mit Dr. David Rump gegründet, einem wunderbaren Juristen, mit dem ich zuvor schon viele Jahre akademisch zusammen gearbeitet habe. Wir verfolgen gemeinsam das Ziel, KI-Compliance im Unternehmen als Instrument zur digitalen Innovation zu verstehen. Beispielsweise fordert Artikel 4 des European AI Acts Unternehmen dazu auf, ihre Mitarbeitenden im Umgang mit KI zu schulen. Auf LinkedIn liest man ja viele Klagen, dass der AI Act ein solches Bürokratiemonster sei, aber ich halte etwa diesen Bildungsaufruf, der darin verankert ist, für eine wichtige Chance, wenn man ihn denn richtig versteht und in die Praxis umsetzt.
Welche Bereiche betrifft das konkret in einem Unternehmen?
Erstmal haben wir natürlich die Frage nach dem Einsatz von KI im Unternehmen und die damit verbundene Herausforderung, alle Mitarbeitenden auf diesem Weg mitzunehmen und fortzubilden. Neben Kompetenz helfen klare Verhaltens- und Nutzungsregeln dabei, KI im Unternehmen auch verantwortungsvoll einzusetzen. Einzelne Anwendungsfälle, bei denen KI-Compliance und Datenschutz dann eine Rolle spielen, sind der Umgang mit Unternehmens- und Kundendaten oder etwa die Frage, ob und wie KI bei der Sichtung von Bewerbungsunterlagen eingesetzt werden darf.
Aus deiner Sicht ist der AI Act also auch eine Chance für Unternehmen?
Er gibt ihnen auf jeden Fall einen wichtigen Anstoß, sich mit dem Thema zu befassen, und bringt sie vielleicht auch dazu, sich darüber Gedanken zu machen, wie KI ihre Geschäftsmodelle in Zukunft verändern wird. Wenn man sich diese Fragen stellt, kann man darauf aufbauend entscheiden, wie man KI im eigenen Unternehmen einsetzen will. Und darin steckt auch ein großer Wettbewerbsvorteil.
Mehr Infos:
Bücher von Sebastian Rosengrün:
Künstliche Intelligenz zur Einführung, Junius Verlag, Hamburg, 2020 (Rezension hier auf ecologies)
mit Fabian Geier: Digitalisierung. Die 101 wichtigsten Fragen. München: Beck 2023