Künstliche Intelligenz :
Gefährliche Algorithmen auf dem Prüfstand

Lesezeit: 4 Min.
Harmlos unintelligent? Jedenfalls wurde schon mit den ersten automatisierten Entscheideralgorithmen diskriminiert.
Intelligente Maschinen brauchen mehr Kontrolle. Wie sonst können wir uns vor ihrer Willkür schützen, wenn sie immer öfter über unser Leben entscheiden? Die Bertelsmann-Stiftung präsentiert ein Frühwarnsystem.

Allmählich wird es wirklich ernst im sozialen Ringen mit den intelligenten Maschinen: Wie können wir verhindern, dass vollkommen undurchsichtige Bots und Algorithmen statt unsereiner Entscheidungen treffen, die uns am Ende selbst schaden – die uns praktisch ausschließen aus demokratischen Prozessen und uns als Kriminelle verdächtigen, die uns bei der Auswahl von Bewerbungen unfair behandeln oder die womöglich Kriterien und Versicherungsprämien nach Herkunft oder Geschlecht diskriminieren?  Einen digitalen TÜV jedenfalls oder eine neutrale Aufsichtsbehörde gibt es noch nicht. Nun haben zwei Berliner Forscher, die verhindern wollen, dass die digitale Revolution am Ende ihre Kinder verschlingt, für die Bertelsmann-Stiftung in Gütersloh zumindest ein Verfahren entwickelt, das als eine Art Frühwarnsystem für Künstliche Intelligenz (KI) eingesetzt werden könnte.

Ohne Abo weiterlesen
Dies ist kein Abo. Ihre Registrierung ist komplett kostenlos, ohne versteckte Kosten.
Oder 3 Monate für 1 € pro Monat Zugang zu allen FAZ+ Beiträgen erhalten und immer aktuell informiert bleiben.