Machine-Learning-Leitlinien

  Ralf Hersel   Lesezeit: 4 Minuten

Der Bund will sich klare Leitplanken beim Einsatz künstlicher Intelligenz in der Verwaltung setzen.

machine-learning-leitlinien

Wie die Digitale Gesellschaft Schweiz mitteilt, hat der Schweizer Bundesrat Ende November die «Leitlinien für den Umgang mit künstlicher Intelligenz in der Bundesverwaltung» verabschiedet. Die insgesamt sieben Leitlinien sind aufgrund des frühen Entwicklungsstadiums der Technologie und der daraus resultierenden Unsicherheit sehr allgemein formuliert und folgen dem liberalen Credo, Rahmenbedingungen ohne übermässige Regulation zu schaffen. Sie fordern an vorderster Stelle eine Gewährleistung der Würde und des Wohls des einzelnen Menschen sowie des Gemeinwohls. Die Verwendung von künstlicher Intelligenz soll transparent kommuniziert und die automatisierten Entscheidungen sollen nachvollziehbar sein. Ausserdem soll bei Schadensfällen oder Gesetzeswidrigkeiten die Haftung klar definiert sein.

Die Forderung nach Transparenz, Nachvollziehbarkeit und Erklärbarkeit ist begrüssenswert und bildet die Grundlage der ebenfalls geforderten klar definierten Haftung. Denn ohne die Einsicht, wie eine automatisierte Entscheidung zustande kam, kann auch nicht bestimmt werden, welcher Teil davon fehlgeschlagen ist und dementsprechend haften muss. Allerdings steigt die Komplexität dieser Algorithmen seit Jahren rasant. Speziell bei den immer häufiger eingesetzten «neuronalen Netzen» steht die Forschung vor einer Herausforderung: Sie kann leider nur unzureichend erklären, warum spezifische Inputs (Daten) zu gewissen Outputs (Entscheidungen) führen.

Beispielsweise sind «Adversarial Examples» (dt. feindliche Beispiele) unvermeidbar. Diese speziell designten Eingaben in neuronale Netze provozieren gezielte Fehler und sind quasi optische Illusionen für Maschinen. Ausserdem können wir erst unzureichend bestimmen, welchen Eigenschaften der Daten sich derart komplexe Algorithmen genau bedienen, um Entscheide zu treffen. Bekannt aus der Forschung ist der Fall, wo Bilder von Hunden und Wölfen nicht etwa an deren Aussehen unterschieden wurden, sondern am Schnee im Hintergrund, der hauptsächlich bei Wölfen zu finden war.

Die Vermutung liegt nahe, dass wenn bereits die Forschung vor diesen Hürden steht, auch die unter Kostendruck agierende Entwicklung in der Bundesverwaltung und der Industrie diese Probleme nur beschränkt wird berücksichtigen können. Damit fällt die Erklärbarkeit und Nachvollziehbarkeit von komplexen automatisierten Entscheidungen

Zudem lernen alle datenbasierten Klassifikations-Algorithmen (also nicht nur neuronale Netzwerke) lediglich die Verteilung der Trainingsdaten, also das Klassifizieren basierend auf dem jeweiligen Input. Daher reproduzieren sie die gesellschaftlichen Konventionen, die implizit in die Trainingsdaten eingeschrieben sind. Durch die drohende Technologiegläubigkeit der Anwender, die Ausgaben der Algorithmen ohne grosses Hinterfragen zu verwenden, werden sich gesellschaftliche Probleme, wie z. B. Diskriminierung basierend auf Herkunft oder Geschlecht, sogar noch verstärken.

Zu den derzeit bekannten Methoden zur künstlichen Reduktion diskriminierender Klassifizierung hat die Forschung gezeigt, dass sich viele Fairness-Definitionen gegenseitig ausschliessen. Dies verdeutlicht, dass dieses Problem nicht technologisch, sondern gesellschaftlich gelöst werden muss.

Momentan wird verstärkt auf „Machine Learning as a Service“ (MLaaS, dt. Maschinelles Lernen als Dienstleistung) gesetzt. Bei diesem Geschäftsmodell stellt der Kunde seine Daten dem entsprechenden Anbieter zur Verfügung, und der Anbieter wählt dann ohne Mitwirkung des Kunden Modell und Art der Algorithmen aus. Dies bedeutet zum einen, dass das Know-how bei diesen grossen Anbietern generiert wird – und dort verbleibt – und zum anderen, dass auch die Verantwortung zu Nachvollziehbarkeit und Robustheit an sie ausgelagert wird.

Im Fazit führen die Leitlinien zwar in die richtige Richtung, sie sind jedoch bei Weitem nicht streng genug und gehen die oben illustrierten Probleme nur unzureichend an. Die Forderung nach Transparenz sollte strikter sein. Der gegenwärtige Trend, überkomplexe und fragile Algorithmen auf schlecht strukturierte Datensammlungen anzuwenden, nur weil es schnell zu verwertbaren Ergebnissen führt und sich dazu noch gut verkaufen lässt, sollte gewendet werden. Auch das Problem der blinden Technologiegläubigkeit muss gezielt angegangen werden. Automatisierte Entscheide sollten uns nicht die Denkarbeit und damit die Selbstreflexion abnehmen, sondern uns positiv dabei unterstützen.

Quelle: https://www.digitale-gesellschaft.ch/2020/12/17/machine-learning-leitlinien-des-bundes-entscheidende-gefahren-nicht-benannt/

Lizenz: David Sommer für Digitale Gesellschaft - CC BY-SA 4.0

Tags

Leitlinien, Algorithmen, Forschung, Digitale, Gesellschaft, Leitlinie, Nachvollziehbarkeit, Algorithm, Entscheidung

Es wurden noch keine Kommentare verfasst, sei der erste!