
Das Schlagwort “künstliche Intelligenz” ist seit Wochen allgegenwärtig in den Schlagzeilen. KI durchdringt mittlerweile weite Bereiche unseres Lebens – ob wir es merken bzw. wollen oder nicht. Die Diskussion der Herausforderungen und Nebenwirkungen, welche der Einsatz dieser Technologien mit sich bringt, ist hingegen noch weitgehend zahnlos.
“Meh Biss” haben wir vom Bundesrat erwartet, als er am 12.2.25 zur Regulierung künstlicher Intelligenz einen Grundsatzentscheid getroffen hat. Dieser geht in die richtige Richtung, ist aber zu zögerlich und zu kurzsichtig. Nach dem AI Action Summit in Paris und in Zeiten, in denen die Machtkonzentration bei Tech-Konzernen ein unerträgliches Ausmass angenommen hat, müsste der Bundesrat deutlich entschiedener vorgehen. Er müsste die Interessen der Menschen in den Mittelpunkt stellen, Grundrechte und Demokratie im Umgang mit KI umfassend schützen und sicherstellen, dass KI in jeder Hinsicht nachhaltig umgesetzt wird.
Der Bundesrat anerkennt, dass KI zum Schutz der Grundrechte reguliert werden muss und strebt an, die KI-Konvention des Europarates zu ratifizieren. Das ist zu begrüssen. Es ist aber zu wenig, insbesondere weil der Bundesrat KI so regulieren will, “dass ihr Potential für den Wirtschafts- und Innovationsstandort Schweiz nutzbar gemacht wird. Gleichzeitig sollten Risiken für die Gesellschaft möglichst klein bleiben”. Das ist ein Aufruf an die Wirtschaft nach dem Motto “sagt uns, welche Regulation ihr gerne hättet – bei den Risiken schauen wir dann fallweise”. So verweigert der Bundesrat die Auseinandersetzung mit den drei zentralen,
drängenden Herausforderungen, die sich durch die Nutzung von KI ergeben: Grundrechte, Debatte und Nachhaltigkeit.
KI beeinflusst Entscheidungen über Menschen, wenn solche Systeme z.B. Stellenbewerbungen prüfen, die Kreditwürdigkeit einschätzen, Rückfallquoten vorhersagen, Sozialhilfe- oder Steuerbetrug entdecken sollen. Dabei besteht automatisch das Risiko, dass das KI-System diskriminierende oder die Grundrechte einschränkende Entscheide fällt. Denn KI kann nur reproduzieren, was sie aus den Daten zuvor “gelernt” hat. Ziel muss es also sein, sicherzustellen, dass KI nachvollziehbar und grundrechtskonform eingesetzt wird und der Ermessensspielraum gewahrt bleibt. Dazu gehört u.a. die Transparenz darüber, mit welchen Daten der Algorithmus trainiert wurde.
Ein wesentlicher Teil unserer Meinungsbildung erfolgt heute auf Social-Media-Plattformen und mit Hilfe von Suchmaschinen. Sie sind so gesteuert, dass wir möglichst lange online bleiben, um den Profit der Betreiberfirmen zu maximieren. Inhalte, die Menschen schaden oder die Meinungsbildung in eine bestimmte Richtung lenken, werden zunehmend von generativen KI-Systemen erstellt und durch intransparente Algorithmen auf Plattformen verbreitet. Gepaart mit der Markt- und Meinungsmacht von wenigen milliardenschweren multinationalen Technologieunternehmen, wird die öffentliche Debatte massiv gefährdet. Ziel muss es sein, Online-Plattformen und KI-Anbieter zur Rechenschaft ziehen zu können, wenn sie negative Auswirkungen in Kauf nehmen, um ihren Profit zu maximieren.
Die Wertschöpfungskette von KI-Systemen ist geprägt von der Machtkonzentration bei wenigen Grosskonzernen, einem enormen Verbrauch an Energie und Wasser, beträchtlichen CO2-Emissionen und teils prekären Arbeitsbedingungen besonders, wenn das Training der Modelle in den Globalen Süden ausgelagert wird. Ziel muss es sein, KI-Systeme über die ganze Wertschöpfungskette hinweg nachhaltig zu gestalten – ökologisch, ökonomisch und sozial.
Die AL fordert zeitnah eine KI-Regulation, welche die Menschen nicht die Wirtschaft ins Zentrum stellt. Gemäss dem Zeitplan des Bundesrates wird dies etwa 2028 der Fall sein. Das muss rascher geschehen – auch auf kantonaler und kommunaler Ebene! Weiter braucht es progressive Kollektive und Gemeinwesen, welche eine offene “KI-Wirtschaft” und damit einen Gegenpol zu den globalen Imperien schaffen, welche unsere Daten ohne Skrupel und ohne Entschädigung nutzen.
Der Beitrag erschien als “Meh Biss!”-Kolumne im P.S. Nr. 07/21. Februar 2025, S. 10