Künstliche Intelligenz

Von Büroklammern zur Machtfrage: Wie KI unsere Werte herausfordert

Büroklammern, die vom Himmel regnen

Büroklammern sind eigentlich ein banales Produkt – wer würde je vermuten, dass ausgerechnet sie zum Sinnbild für die Gefahren Künstlicher Intelligenz werden könnten?

Das entsprechende Gedankenexperiment kursiert schon länger: Eine KI erhält den simplen Auftrag, so viele Büroklammern wie möglich herzustellen. Anfangs steigert sie rational die Effizienz, entdeckt neue Materialien und optimiert Prozesse. Doch was, wenn es sich dabei um eine lernende und generative KI handelt, die fortlaufend eigene Strategien und Lösungen erdenkt und dabei keinerlei Grenzen oder Werte kennt? Dann würde sie alle Ressourcen gnadenlos auf ihr Ziel fokussieren – Rohstoffe, Energie, sogar menschliche Arbeitskraft. Die Welt ginge an der Büroklammer zugrunde – perfekter Stoff für Mani Matter, würde er noch unter uns weilen.

Allerdings bleibt dieses Szenario theoretisch; in der Praxis wäre es erst bedrohlich, wenn wir von einer sogenannten Superintelligenz sprechen – also einer KI, die den Menschen in allen Bereichen übertrifft. Bei herkömmlichen Algorithmen oder Deep-Learning-Systemen, die zwar selbst lernen, aber immer noch von menschlichen Trainingsdaten und klaren Rechenzielen abhängen, gibt es oft Möglichkeiten, korrigierend einzugreifen oder Sicherheitsmechanismen einzubauen.

Eine Superintelligenz hingegen wäre ähnlich wenig "programmierbar" wie ein Mensch. Wenn sie einmal beschlossen hat, das Ziel "unendlich viele Büroklammern" zu verfolgen, könnte sie jeden menschlichen "Zug" vorhersehen und unterlaufen. Das Gedankenexperiment verdeutlicht, wie zweckrational KI handeln kann, wenn niemand ein "Genug ist genug!" verankern kann – oder wenn eine lernende Maschine dieses Signal einfach ignoriert.

KI ohne Grenzen? Der Wettlauf um Kontrolle

In führenden Technologiezentren wie San Francisco und Seattle git es zunehmend heftige Kontroversen über die Kontrolle von KI-Systemen. Aktuelle Ereignisse bei OpenAI offenbaren Spannungen zwischen Entwicklerteams und Führungskräften hinsichtlich der Bereiche der Verantwortlichkeiten.

Der ehemalige Chief Scientist von OpenAI, Ilya Sutskever, warnt davor, KI-Systeme zu schnell einzusetzen, da sie Entscheidungen treffen könnten, die selbst ihre Entwickler nicht mehr vollständig nachvollziehen können. OpenAI CEO Sam Altman hingegen befürchtet, dass strikte Regeln und Ethikkommissionen Innovationen hemmen und den internationalen Wettbewerb verzerren könnten. So prallen zwei Sichtweisen aufeinander: die Hoffnung, dass KI grosse Menschheitsprobleme lösen kann, und die Sorge, dass sie sich verselbstständigt – mit ungewissem Ausgang für uns alle.

Unsichtbare Risiken: Wenn Algorithmen diskriminieren

Bereits heute zeigen sich Schattenseiten der Künstlichen Intelligenz, die weniger mit apokalyptischen Zukunftsängsten als mit konkreten, alltäglichen Anwendungen zu tun haben. Ein Beispiel dafür ist Amazons KI-gestütztes Rekrutierungssystem, das entwickelt wurde, um Bewerbungen zu analysieren und zu bewerten. Dieses System musste jedoch eingestellt werden, nachdem festgestellt wurde, dass es weibliche Bewerberinnen systematisch benachteiligte. Der Grund darür war, dass die KI mit Lebensläufen von Bewerbern trainiert wurde, die überwiegend männlich waren.

Dadurch lernte der Algorithmus, bestimmte Begriffe wie "Frauen" oder Hinweise auf frauenspezifische Aktivitäten negativ zu bewerten. So wurden beispielsweise Bewerbungen mit Formulierungen wie "Frauenfussballteam" oder Engagements in Frauenorganisationen abgewertet. Diese Verzerrung entstand, weil die KI die geschlechtsspezifische Verteilung in den Trainingsdaten als Qualitätsmerkmal interpretierte und somit unbewusste Vorurteile aus früheren Personalentscheidungen übernahm und verstärkte. Ohne klare Vorgaben kann KI im Dienst von ihren Zielen ungewollt diskriminieren.

Weltweite Regeln oder Chaos? Der Kampf um Regulierung

Genau hier setzt die Diskussion um Regulierung an. Die Europäische Union versucht, mit dem EU AI Act strikte Richtlinien zu etablieren, von Datenschutz über Erklärbarkeit bis hin zum Schutz von Grundrechten. Kritiker in den USA halten das für überbordende Bürokratie, die den Fortschritt in der Tech-Branche bremse.

China verfolgt einen anderen Ansatz: Dort wird KI proaktiv in Überwachungssystemen eingesetzt, wobei ethische Grenzen anders definiert werden als im Westen. Nicht der individuelle Datenschutz steht im Vordergrund, sondern die kollektive Sicherheit und soziale Stabilität.

Weltweit wachsen zudem die technischen Kapazitäten, während Algorithmen keine Landesgrenzen kennen. Eine KI, die in Europa programmiert oder trainiert wird, kann überall zum Einsatz kommen – und umgekehrt.

Macht durch Wissen: Warum digitale Bildung entscheidend ist

Neben Gesetzen und Regulierungen stellt sich die Frage, wer in einer digitalisierten Gesellschaft überhaupt den Durchblick hat. Sollte bereits Kindern und Jugendlichen vermittelt werden, was ein Algorithmus ist und wie er zu seinen Ergebnissen kommt? Eine informierte Bevölkerung kann eher die richtigen Fragen stellen: Wo liegen die Grenzen automatisierter Entscheidungen? Wann muss der Mensch eingreifen?

Maschinen treffen heute in vielen Bereichen bereits Entscheidungen: vom Online-Shopping über Empfehlungsalgorithmen in Streaming-Plattformen bis hin zu automatisierten Kreditprüfungen. Sie bewerten Datenmuster und statistische Wahrscheinlichkeiten, nicht aber moralische Werte. Wer Systeme entwickelt, spricht oft von "Ethics by Design": KI soll so entworfen werden, dass Fairness- und Nachhaltigkeitskriterien automatisch einbezogen werden. Ansonsten setzt sich immer das durch, was nach rein rechnerischen Kriterien das beste Ergebnis liefert – selbst wenn dabei gesellschaftliche Werte untergraben werden.

Wer setzt die Leitplanken?

Die entscheidende Frage ist, ob wir uns als Gemeinschaft genügend Zeit nehmen, über den verantwortungsvollen Umgang mit KI nachzudenken.

Einerseits drängt die wirtschaftliche Konkurrenz – wer zu spät kommt, verliert den Anschluss und damit Zukunftsmärkte. Andererseits könnten Fehlentscheidungen weitreichende gesellschaftliche Folgen haben – von wirtschaftlichen Verwerfungen bis hin zu sozialen Spannungen. Zu viel Ethik birgt das Risiko, Chancen zu verpassen; Technologie ohne Vertrauen ist jedoch nicht nachhaltig.

Am Ende bleibt das Bild der alles verschlingenden Büroklammer-KI, das immer wieder als Extremszenario auftaucht. Es wirkt überzeichnet, doch es drückt genau das aus, was aktuell in der KI-Bubble diskutiert wird: Eine zweckrationale Maschine wird jede Lücke im System nutzen, wenn sie dafür entwickelt wurde. Sie wird keinen Moment innehalten, um über ethische Dimensionen nachzudenken – diese Verantwortung liegt bei uns als Gesellschaft.

Wir könnten all das als Weckruf verstehen. Doch wie sollen wir die richtigen Weichen stellen, wenn die Technologie schneller voranschreitet, als Politik und Recht nachziehen können? Noch gravierender: Selbst die grossen KI-Unternehmen sichern ihre Systeme oft unzureichend ab, bevor sie sie veröffentlichen – nicht einmal annähernd.

Dazu kommt der gnadenlose Wettlauf um Artificial General Intelligence: Wertvolle Chips fliessen in Entwicklung und Skalierung, kaum aber in Sicherheitsmassnahmen. Dabei entdecken Tüftler immer noch unerwartete Fähigkeiten in Modellen wie GPT-4, die ihnen zuvor unbekannt waren.

Vielleicht liegt die wahre Gefahr nicht in einer ausser Kontrolle geratenen KI, sondern in unserer eigenen Nachlässigkeit: dem Zögern, klare Grenzen zu setzen, und der Weigerung, Verantwortung zu übernehmen. Was, wenn nicht die KI uns entgleitet, sondern wir selbst – weil wir ihren Fortschritt vorantreiben, ohne zu wissen, wohin er uns führt?

Die Autorin: Olivia Schiffmann

Olivia Schiffmann, geschäftsführende Partnerin der Kuble AG und Co-Founder der Metaverse Academy

Olivia Schiffmann ist geschäftsführende Partnerin der Kuble AG, einer Agentur für Künstliche Intelligenz, digitale Kommunikation und Mixed Reality. Mit einem Master of Law und langjähriger Erfahrung im digitalen Marketing verbindet sie juristisches Fachwissen mit ihrer Begeisterung für Technologie.

Als Co-Founder der Metaverse Academy unterstützt sie Menschen dabei, KI und neue Technologien zu verstehen – mit all ihren Chancen und Herausforderungen. Ihr Antrieb: Innovation strategisch nutzen, Verantwortung übernehmen und Unternehmen dabei helfen, die digitale Zukunft erfolgreich zu gestalten.