Diskriminierungsgefahren durch Künstliche Intelligenz // Prof. Dr. Jutta Allmendinger

Поділитися
Вставка
  • Опубліковано 21 бер 2024
  • Diskriminierende Benachteiligung durch Algorithmen und intelligente Computerprogramme ist ein inzwischen viel diskutiertes, aber nach wie vor nur in Ansätzen verstandenes soziales Übel und Gerechtigkeitsproblem. Diskriminierung ist eine Form der unfairen Benachteiligung von Personen aufgrund von Merkmalen und Merkmalskombinationen, die eine Benachteiligung nicht rechtfertigen, soviel ist klar. Wie Fairness in diesem Zusammenhang aber genau zu verstehen ist und welche Anfordergen sich aus ihr für Bewertungen und selektive Entscheidungen mit Hilfe von Algorithmen und KI ergeben ist jedoch alles andere als offensichtlich. Die in Regelwerken, Gesetzesentwürfen und Positionierungen von NGOs zu findenden Begrifflichkeiten und Erklärungen sind jedenfalls erkennbar unzureichend. Die Enquete-Kommission des Bundestages zur künstlichen Intelligenz hält in ihrem Abschlussbericht 2020 fest, dass es - abgesehen von einigen rechtlichen Festlegungen - keine allgemein akzeptierte Definition von Fairness gäbe und fordert eine schnelle Anwendung von „Forschungsergebnissen“ über Diskriminierung in der Softwareentwicklung. Tatsächlich müssen wir uns die Frage, was Diskriminierung resp. Nicht-Diskriminierung im Sinne einer fairen Gleichbehandlung mit Blick auf digitale Anwendungen ausmacht noch einmal neu stellen und dabei auch grundlegende Aspekte unseres herkömmlichen Diskriminierungsverständnisses überdenken.
    Mehr Infos unter:
    wissenschaftsforum.org/

КОМЕНТАРІ •