KIF490:Resolutionsentwürfe/Ethik in Machine Learning Modulen: Unterschied zwischen den Versionen
Glor (Diskussion | Beiträge) Keine Bearbeitungszusammenfassung |
Keine Bearbeitungszusammenfassung |
||
(14 dazwischenliegende Versionen von 4 Benutzern werden nicht angezeigt) | |||
Zeile 1: | Zeile 1: | ||
=Ethik als verpflichtender Teil von Machine Learning Modulen= | =Ethik als verpflichtender Teil von Machine Learning Modulen= | ||
[[Datei:KIF490_Resolutionsentwürfe_Ethik_in_Machine_Learning_Modulen.ogg|thumb|Eingesprochene Resolution (by [[KIFfel:Janfred]])]] | |||
Die {{KIF|49,0}} fordert die Hochschulen und Lehrenden dazu auf, in Lehrveranstaltungen im Lehrgebiet des Machine Learnings die ethische Einordnung der besprochenen Themen als Teil der Veranstaltung sicher zu stellen. | |||
Dies beinhaltet sowohl die ethisch theoretischen Grundlagen als auch die Beschäftigung mit der praktischen Anwendung. | |||
Dabei beruft sie sich insbesondere auf die Resolution "Ethik als Teil des Studiums" der {{KIF|44,5}} <ref>[[KIF445:Resolutionen/Ethik_als_Teil_des_Studiums|Resolution "Ethik als Teil des Studiums", KIF 44,5 ]]</ref> und die Anforderungen aus § 11 (1) Satz 3 MRVO <ref>https://www.akkreditierungsrat.de/sites/default/files/downloads/2019/Musterrechtsverordnung.pdf</ref> . | |||
Hierbei sind insbesondere | Hierbei sind insbesondere die Themen: | ||
* Grenzen der KI, | * Grenzen der KI, | ||
* Diskriminierung, | * Diskriminierung, | ||
* | * Gefahren des Missbrauchs und Dual Use, | ||
* gesellschaftlicher Kontext, | * gesellschaftlicher Kontext, | ||
* verantwortungsvolle Systeme, | * verantwortungsvolle Systeme, | ||
* Verantwortung der | * Verantwortung der Entwickelnden, | ||
* Transparenz und Nachvollziehbarkeit, | * Transparenz und Nachvollziehbarkeit, | ||
* Abbildbarkeit von gesellschaftlichen Normen und | * Abbildbarkeit von gesellschaftlichen Normen und | ||
Zeile 16: | Zeile 19: | ||
einzubeziehen. | einzubeziehen. | ||
==Begründung== | ==Begründung== | ||
Zeile 25: | Zeile 24: | ||
Bereits heute beeinflusst künstliche Intelligenz einen großen Teil unseres Lebens. Durch Algorithmen werden wir analysiert, uns Videos vorgeschlagen oder unsere Kreditwürdigkeit gemessen. Viele dieser Beeinflussungen vereinfachen unser Leben und helfen uns im Alltag, Andere fördern die Wirtschaft. | Bereits heute beeinflusst künstliche Intelligenz einen großen Teil unseres Lebens. Durch Algorithmen werden wir analysiert, uns Videos vorgeschlagen oder unsere Kreditwürdigkeit gemessen. Viele dieser Beeinflussungen vereinfachen unser Leben und helfen uns im Alltag, Andere fördern die Wirtschaft. | ||
Dennoch sind damit viele Risiken verbunden. Während diese bei traditionellen Algorithmen noch überschau- und analysierbar sind, verstehen selbst die Entwickler eines selbstlernenden Systems oft nicht, wonach genau dieses System Entscheidungen fällt. So werden bei einigen Bilderkennungsprogrammen dunkelhäutige Menschen als nicht-menschlich klassifiziert, in anderen Fällen werden Bewerbungen anhand von Hautfarbe oder Geschlecht abgelehnt | Dennoch sind damit viele Risiken verbunden. Während diese bei traditionellen Algorithmen noch überschau- und analysierbar sind, verstehen selbst die Entwickler eines selbstlernenden Systems oft nicht, wonach genau dieses System Entscheidungen fällt. So werden bei einigen Bilderkennungsprogrammen dunkelhäutige Menschen eher als nicht-menschlich klassifiziert <ref>https://sitn.hms.harvard.edu/flash/2020/racial-discrimination-in-face-recognition-technology/</ref>, in anderen Fällen werden Bewerbungen anhand von Hautfarbe oder Geschlecht abgelehnt <ref>https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G</ref>. Da bei selbstlernenden Systemen Entscheidungsprozesse durch den Menschen häufig nicht mehr nachzuvollziehen oder zu kontrollieren sind, steht auch die Frage der Eigenverantwortung von selbstlernenden Systemen im Raum. | ||
Bei den in Zukunft geplanten Einsätzen des maschinellen Lernens sind die Risiken noch erheblich größer. In China befindet sich bereits ein Social-Scoring-System in der Entwicklung, in dem Menschen anhand ihres Verhaltens Rechte und Möglichkeiten entzogen oder vorenthalten werden, und auch in Deutschland und der EU finden sich dank Videoüberwachung und ersten Ideen zum "predictive Policing" bereits Systeme, die eine sehr genaue Analyse unseres Verhaltens durch staatliche und private Organe ermöglichen. Auch die Nutzung selbstlernender Systeme im militärischen und medizinischen Kontext wird bereits erforscht, was direkt Menschenleben kosten könnte. | Bei den in Zukunft geplanten Einsätzen des maschinellen Lernens sind die Risiken noch erheblich größer. In China befindet sich bereits ein Social-Scoring-System in der Entwicklung, in dem Menschen anhand ihres Verhaltens Rechte und Möglichkeiten entzogen oder vorenthalten werden <ref>https://www.heise.de/newsticker/meldung/34C3-China-Die-maschinenlesbare-Bevoelkerung-3928422.html</ref>, und auch in Deutschland und der EU finden sich dank Videoüberwachung und ersten Ideen zum "predictive Policing" bereits Systeme, die eine sehr genaue Analyse unseres Verhaltens durch staatliche und private Organe ermöglichen <ref>https://netzpolitik.org/2020/bahnhof-berlin-suedkreuz-seehofer-will-wieder-mit-videoueberwachung-experimentieren/</ref><ref>https://netzpolitik.org/2020/eu-zahlt-300-millionen-euro-fuer-erkennung-von-gesichtern-und-fingerabdruecken/</ref><ref>https://netzpolitik.org/2019/predictive-policing-dem-verbrechen-der-zukunft-auf-der-spur/</ref>. Auch die Nutzung selbstlernender Systeme im militärischen und medizinischen Kontext wird bereits erforscht, was direkt Menschenleben kosten könnte <ref>https://fas.org/sgp/crs/natsec/R45178.pdf</ref>. | ||
Gleichzeitig ist maschinelles Lernen an vielen deutschen | Gleichzeitig ist maschinelles Lernen an vielen deutschen Hochschulen bereits ein so heißes Thema, dass sogar spezielle Studiengänge zur "Data Science" eingerichtet werden. Die {{KIF|49,0}} stellt allerdings fest, dass die Risiken und ethischen Fragen der Technik in diesen und anderen Studiengängen viel zu wenig beleuchtet werden. Im Ergebnis werden in den nächsten Jahren viele Absolventen in die Wirtschaft und die Forschung entlassen werden, ohne jemals mit diesen Fragen konfontiert worden zu sein. | ||
Die {{KIF|49,0}} fordert die | Die {{KIF|49,0}} fordert die Hochschulen auf, in Lehrveranstaltungen zum maschinellen Lernen den Themenbereich Ethik verpflichtend zu integrieren, um diese Thematik im gesamten Geschäftsbereich stärker in den Fokus zu rücken. Gleichzeitig ist es nach unserer Auffassung auch Aufgabe der Hochschulen, neben der reinen Wissensvermittlung auch eine kritische Auseinandersetzung mit der eigenen Profession zu ermöglichen. Dies wird gestützt durch §11 (1) Satz 3 der Musterrechtsverordnung nach dem Studienakkreditierungsstaatsvertrag. | ||
Ansprechpartner: Fluffy (TU Do) | Ansprechpartner: Fluffy (TU Do) |
Aktuelle Version vom 18. Mai 2021, 08:51 Uhr
Ethik als verpflichtender Teil von Machine Learning Modulen[Bearbeiten]
Die 49,0. Konferenz der deutschsprachigen Informatikfachschaften fordert die Hochschulen und Lehrenden dazu auf, in Lehrveranstaltungen im Lehrgebiet des Machine Learnings die ethische Einordnung der besprochenen Themen als Teil der Veranstaltung sicher zu stellen. Dies beinhaltet sowohl die ethisch theoretischen Grundlagen als auch die Beschäftigung mit der praktischen Anwendung. Dabei beruft sie sich insbesondere auf die Resolution "Ethik als Teil des Studiums" der 44,5. Konferenz der deutschsprachigen Informatikfachschaften [1] und die Anforderungen aus § 11 (1) Satz 3 MRVO [2] .
Hierbei sind insbesondere die Themen:
- Grenzen der KI,
- Diskriminierung,
- Gefahren des Missbrauchs und Dual Use,
- gesellschaftlicher Kontext,
- verantwortungsvolle Systeme,
- Verantwortung der Entwickelnden,
- Transparenz und Nachvollziehbarkeit,
- Abbildbarkeit von gesellschaftlichen Normen und
- Datenschutz
einzubeziehen.
Begründung[Bearbeiten]
Bereits heute beeinflusst künstliche Intelligenz einen großen Teil unseres Lebens. Durch Algorithmen werden wir analysiert, uns Videos vorgeschlagen oder unsere Kreditwürdigkeit gemessen. Viele dieser Beeinflussungen vereinfachen unser Leben und helfen uns im Alltag, Andere fördern die Wirtschaft.
Dennoch sind damit viele Risiken verbunden. Während diese bei traditionellen Algorithmen noch überschau- und analysierbar sind, verstehen selbst die Entwickler eines selbstlernenden Systems oft nicht, wonach genau dieses System Entscheidungen fällt. So werden bei einigen Bilderkennungsprogrammen dunkelhäutige Menschen eher als nicht-menschlich klassifiziert [3], in anderen Fällen werden Bewerbungen anhand von Hautfarbe oder Geschlecht abgelehnt [4]. Da bei selbstlernenden Systemen Entscheidungsprozesse durch den Menschen häufig nicht mehr nachzuvollziehen oder zu kontrollieren sind, steht auch die Frage der Eigenverantwortung von selbstlernenden Systemen im Raum.
Bei den in Zukunft geplanten Einsätzen des maschinellen Lernens sind die Risiken noch erheblich größer. In China befindet sich bereits ein Social-Scoring-System in der Entwicklung, in dem Menschen anhand ihres Verhaltens Rechte und Möglichkeiten entzogen oder vorenthalten werden [5], und auch in Deutschland und der EU finden sich dank Videoüberwachung und ersten Ideen zum "predictive Policing" bereits Systeme, die eine sehr genaue Analyse unseres Verhaltens durch staatliche und private Organe ermöglichen [6][7][8]. Auch die Nutzung selbstlernender Systeme im militärischen und medizinischen Kontext wird bereits erforscht, was direkt Menschenleben kosten könnte [9].
Gleichzeitig ist maschinelles Lernen an vielen deutschen Hochschulen bereits ein so heißes Thema, dass sogar spezielle Studiengänge zur "Data Science" eingerichtet werden. Die 49,0. Konferenz der deutschsprachigen Informatikfachschaften stellt allerdings fest, dass die Risiken und ethischen Fragen der Technik in diesen und anderen Studiengängen viel zu wenig beleuchtet werden. Im Ergebnis werden in den nächsten Jahren viele Absolventen in die Wirtschaft und die Forschung entlassen werden, ohne jemals mit diesen Fragen konfontiert worden zu sein.
Die 49,0. Konferenz der deutschsprachigen Informatikfachschaften fordert die Hochschulen auf, in Lehrveranstaltungen zum maschinellen Lernen den Themenbereich Ethik verpflichtend zu integrieren, um diese Thematik im gesamten Geschäftsbereich stärker in den Fokus zu rücken. Gleichzeitig ist es nach unserer Auffassung auch Aufgabe der Hochschulen, neben der reinen Wissensvermittlung auch eine kritische Auseinandersetzung mit der eigenen Profession zu ermöglichen. Dies wird gestützt durch §11 (1) Satz 3 der Musterrechtsverordnung nach dem Studienakkreditierungsstaatsvertrag.
Ansprechpartner: Fluffy (TU Do)
Anmerkungen aus dem AK Polieren[Bearbeiten]
- Im Sinne der Resolution "Ethik als Teil des Studiums" der KIF 44,5 [1] (optional: und darüber hinaus) fordert die 49,0. Konferenz der deutschsprachigen Informatikfachschaften die Hochschulen dazu auf, in Lehrveranstaltungen zum maschinellen Lernen den Themenbereich Ethik verpflichtend zu integrieren.
- Was ist mit mathematischeren Grundlagenvorlesungen? Muss das wirklich bei jeder Veranstaltung dabei sein?
- "verpflichtend" ist awkward, weil viele ML-Veranstaltungen freiwillig sind
- "Transparenz und Nachvollziehbarkeit" hinzufügen
- "Die KIF sieht dabei insbesondere auch die Lehrenden in der Verantwortung."
- § 11 (1) Satz 3 MRVO "Die Studierenden sollen nach ihrem Abschluss in der Lage sein, gesellschaftliche Prozesse kritisch, reflektiert sowie mit Verantwortungsbewusstsein und in demokratischem Gemeinsinn maßgeblich mitzugestalten."
- ↑ Resolution "Ethik als Teil des Studiums", KIF 44,5
- ↑ https://www.akkreditierungsrat.de/sites/default/files/downloads/2019/Musterrechtsverordnung.pdf
- ↑ https://sitn.hms.harvard.edu/flash/2020/racial-discrimination-in-face-recognition-technology/
- ↑ https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G
- ↑ https://www.heise.de/newsticker/meldung/34C3-China-Die-maschinenlesbare-Bevoelkerung-3928422.html
- ↑ https://netzpolitik.org/2020/bahnhof-berlin-suedkreuz-seehofer-will-wieder-mit-videoueberwachung-experimentieren/
- ↑ https://netzpolitik.org/2020/eu-zahlt-300-millionen-euro-fuer-erkennung-von-gesichtern-und-fingerabdruecken/
- ↑ https://netzpolitik.org/2019/predictive-policing-dem-verbrechen-der-zukunft-auf-der-spur/
- ↑ https://fas.org/sgp/crs/natsec/R45178.pdf