KI-Killswitch

  Ralf Hersel   Lesezeit: 3 Minuten  🗪 3 Kommentare

Wissenschaftler schlagen einen Not-Aus-Schalter für KI-Hardware vor, um uns vor der Übernahme durch KI zu schützen. Ich sehe darin einen Marketing-Move.

ki-killswitch

Eine Veröffentlichung der Universität von Cambridge legt nahe, dass KI-Systeme im Notfall durch hardwarebasierte Lösungen effektiv in Schach gehalten werden könnten. Falls KI-Systeme Amok laufen, soll es ein Killswitch richten. In diesem Paper heisst es:

Rechenleistung ist für die Entwicklung und den Einsatz von künstlicher Intelligenz (KI) von entscheidender Bedeutung. Daher haben Regierungen und Unternehmen begonnen, die Rechenleistung als Mittel zur Steuerung der KI zu nutzen. So investieren Regierungen beispielsweise in inländische Rechenkapazitäten, kontrollieren den Fluss von Rechenleistung in konkurrierende Länder und subventionieren den Zugang zu Rechenleistung für bestimmte Sektoren.

Diese Bemühungen kratzen jedoch nur an der Oberfläche der Möglichkeiten, die der Einsatz von Computern zur Steuerung der KI-Entwicklung und -Einführung bieten kann. Im Vergleich zu anderen wichtigen Inputs für KI (Daten und Algorithmen) ist KI-relevante Rechenleistung ein besonders effektiver Eingriffspunkt: Sie ist nachweisbar, unausschliessbar und quantifizierbar und wird über eine extrem konzentrierte Lieferkette produziert. Diese Merkmale sowie die besondere Bedeutung von Daten für hochmoderne KI-Modelle legen nahe, dass die Regulierung von Daten zur Erreichung gemeinsamer politischer Ziele beitragen kann, etwa zur Gewährleistung der Sicherheit und des nützlichen Einsatzes von KI. Genauer gesagt könnten die politischen Entscheidungsträger den Computer nutzen, um die regulatorische Sichtbarkeit von KI zu erleichtern, Ressourcen zur Förderung positiver Ergebnisse zuzuweisen und Beschränkungen gegen unverantwortliche oder böswillige KI-Entwicklung und -Nutzung durchzusetzen.

Obwohl computergestützte Politiken und Technologien das Potenzial haben, in diesen Bereichen zu helfen, gibt es jedoch erhebliche Unterschiede in Bezug auf ihre Umsetzungsreife. Einige Ideen werden derzeit erprobt, während andere durch den Bedarf an Grundlagenforschung behindert werden. Darüber hinaus bergen naive oder unzureichend konzipierte Ansätze zur Verwaltung von Computern erhebliche Risiken in Bereichen wie Datenschutz, wirtschaftliche Auswirkungen und Zentralisierung von Macht. Abschließend schlagen wir Leitplanken vor, um die Risiken von Compute Governance zu minimieren.

Ob man den Gedanken der Autoren folgen möchte, oder nicht, spielt eine untergeordnete Rolle. In den letzten Jahren haben wir schon einige Vorschläge zur Regulierung von KI gelesen. Interessant ist, dass beim oben genannten Paper auch wieder OpenAI mit dabei ist. Dieses Muster haben wir schon mehrere Male gesehen. Es funktioniert so:

Wenn man der wesentliche Treiber einer neuen Technologie ist, kann man in vorauseilendem Gehorsam die eigene Entwicklung kritisch betrachten. Dadurch wendet man die öffentliche Einschätzung vom "verrückten Professor" zum "verantwortungsbewussten Unternehmen". Das wäre so, als würde Microsoft schreiben: "Wir sind uns bewusst, dass Exchange die grösste Katastrophe ist, die wir je produziert haben. Deshalb raten wir allen Anwendern, unser Produkt nur unter Einbezug unserer Experten einzusetzen." Es ist ausserdem ein Signal an regulierende Behörden: "Seht her, wir sind uns des Schadenspotenzials unseres Produktes bewusst, und wir sind bereit, mit euch zusammenzuarbeiten." Auch in der Öffentlichkeit verschafft man sich mit diesem Vorgehen Wohlwollen. OpenAI liefert KI-Dienstleistungen, über deren Missbrauchsmöglichkeiten sie klar kommunizieren und Kill-Switches anbieten.

Ob es einen Kill-Switch in KI-Hardware braucht, kann ich nicht beantworten. Ich verweise lieber auf das Arbeitsrecht, welches einen Kill-Switch bei den Anwender:innen vorsieht. Doch dazu mehr in einem weiteren Artikel.

Cliffhanger intended

Quelle: https://www.cser.ac.uk/media/uploads/files/Computing-Power-and-the-Governance-of-AI.pdf

Bildquelle: https://www.pindrop.com/wp-content/uploads/2017/05/kill-switch.jpg

Tags

KI, Kill-Switch, Cambrigde, OpenAI

Conrad
Geschrieben von Conrad am 20. Februar 2024 um 10:58

Wenn die Regierung anfängt, die KI zu regulieren wird das Resultat - wie immer Stagnation, verpaßte Chancen und letztendlich Niedergang sein. Wir hatten das in Deutschland in den 70er/80er Jahren, als die damals aufkommende Rechentechnik als "Jobkiller" und mit den gleichen Argumenten wie heute die KI in der "öffentlichen Diskussion" (die doch nur das Staatsfernsehen war) bekämpft wurde. Das Ergebnis kennen wir alle - wo spielt Deutschland oder wo spielt Europa eine Rolle in der IT?

Warum ist das so? Der Staat heißt Staat weil er statisch ist - Entwicklung ist daher immer erst einmal eine Gefahr für die eigenen Extraktionspfade (schaut, was das Internet angerichtet hatte - die Filterfunktion des Staatsfernsehens und der formal privaten aber doch staatstragenden Medien ist dahin) Eine Ausnahme ist da natürlich die Königklasse seines Handelns- der Krieg.

Wir brauchen nicht weniger, sonder mehr Wissen über KI. Das gilt für unsere Länder (die zum Jagen getragen werden müssen) aber auch für jeden Einzelnen von uns. Das Thema Digitale Souveränität ist gerade bei der IT noch einmal ein viel wichtigeres wie bei Cloud Technologien. Wir dürfen uns hier nicht abhängig machen.

kamome
Geschrieben von kamome am 21. Februar 2024 um 08:31

> Wir brauchen nicht weniger, sondern mehr Wissen über KI.

Mehr Wissen schon – nicht zwingend aber mehr KI.

Conrad
Geschrieben von Conrad am 20. Februar 2024 um 11:09

Ja das ist richtig - große Firmen sind keine Freunde der Marktwirtschaft sondern benutzen die Regierungen um die eigene Konkurrenz zu verbieten. Regulierungswahn ist die Pest unserer Zeit.