KIF435:Informatik und Ethik

Aus KIF
Zur Navigation springenZur Suche springen

Beschreibung[Bearbeiten]

In freier Runde tauschen wir uns über ethisch brisante Themen der Informatik aus. Welche Auswirkungen hat die Entwicklung der Informatik auf die Gesellschaft? Dürfen wir am Rechner etwas tun, nur, weil wir es können? Wie gehen wir mit unseren Daten um und ist es okay, dass Google mein Passwort speichert?

Protokoll[Bearbeiten]

Rüstungsforschung:

  • Zivilklausel -> Freiheit der Wissenschaft
  • Was ich entwickle könnte für Rüstungszwecke genutzt werden(?)
    • Wann höre ich auf?

Auswirkung auf Gesellschaft

  • Wie wirkt sich der Computer/Roboter/ die Maschine auf unseren Alltag/unsere Arbeitswelt aus?
    • Verschiebung der Arbeitsbereiche.
    • Verlernen der Handwerkskunst und Technifizierung.
  • Künstliche Intelligenz (autonome Fahrzeuge)

Datensicherheit Szene:

  • Für das Bezahlsystem der Mensa werden zur schnelleren Bezahlung Fingerabdrücke der Studenten als Identifikation genommen.
  • Greift das System beim Studenten nicht fällt ein Zuschlag von 3% an, das Bargeld einen Mehraufwandt darstellt. System ist jedoch relativ zuverlässig.
  • Student entwickelt das System, sammelt die Fingerabdrücke der Studenten und verwahrt sie sicher.
  • In der Uni wird eingebrochen und zwei Beamer werden entwendet.
  • Direktor verlangt die Fingerabdrücke der Polizei auszuhändigen.
    • Als der Entwickler sich weigert die Daten herauszugeben wird er vom Direktor des Deckens des Diebes beschuldigt.

Plagiat und Datenschutz Szene:

  • Hannah gibt sich bei ihrer Hausarbeit massiv mühe und muss sogar die Nacht hindurch daran arbeiten.
  • Am nächsten Tag hört sie am Nachbartisch Sebastian prahlen, dass er sich einfach eine fertige Arbeit gekauft, sie umformatiert und seinen Namen daruntergesetzt hat.
    • Desweiteren hätte er die Nacht durchgefeier und irgendeine 'BWL-Tussi' abgeschleppt
  • Nach kurzer Zeit werden die Noten halbanaonym (Immanummer als Schlüssel) veröffentlicht.
  • Da die Studierenden größtenteil die Nummern der anderen kennen kann sich Hannah nicht zurückhalten die Note ihres Komillitonen nachzusehen.
    • Sie bekam eine 2,0, er eine 1,3.

Sicherheitslücken Szene:

  • Florian ist angehender Student an der Elite International School Hessen
  • Julius bewirbt sich zeitgleich an der Common Sciences University
  • Beide Bewerbungen laufen über dieselbe Plattform der CreativeSoul GmbH
  • Steve, ein Freizeit-Hacker findet eine Sicherheitslücke auf dem Portal und nach einiger Zeit verschafft er sich Einsicht in die Datenbank mit den Bewerbungsergebnissen
  • Nach einer Modifikation seine Skripts, durch das man nur das Ergebnis der eigenen Bewerbung erhält, lädt er es zuerst auf seiner Website hoch
  • Sobald er dies in einem Uni-Folum veröffentlicht, erfahren immer mehr davon
  • Das Bewerbungsportal erkennt die wachsenden unauthorisierten Zugriffe und informiert die betroffenen Universitäten
  • Die Elite International School (Florian) löscht alle Bewerbung und lässt verlauten, dass keine erneute Bewerung der Anwärter möglich sei.
  • Die Common Sciences University (Steve) löscht die Bewerbungen auch, lässt jedoch eine erneute nach 6 Monaten zu
  • Auch Florians Bewerbung wird gelöscht und ihm das Studium verweigert obwohl er Steves Tool nie verwendet hat


Zunächst Vorstellungsrunde und "Was erwarte ich von dem AK?"

Drei Große Themen:

  • Was ist Informatik und Ethik?
  • Wie wird/kann das Thema im Studiengang integriert werden?
  • Rüstungsindustrie

Rüstungsindustrie:

  • Bsp. Ausschreibungen in CG -> Affen im Urwald tracken
  • Gut / Böse -> Morgens / Abends
    • Was mit den den Dämmerungsphasen?
  • Für alles militärische gibt es auch zivile Anwendungsbereiche. Die Frage ist, welcher Bereich überwiegt.
  • Eigentlich ist es schlecht zu sagen, dass ein Produkt/eine Idee nur für einen Zweck genutzt werden. Das ist nicht realistisch. Kann ich erkennen, dass mir vorgelogen wird, dass es nur für zivile Zwecke genutzt wird?
  • Nur weil ein Produkt mehrheitlich zivil genutzt wird, aber auch militärischen Nutzen hat, sollte das nicht zu unkritisch gesehen werden, es muss genauer gewichtet werden.
  • Vorschlag: Gremium einstellen, um zu entscheiden, ob eine Anwendung ethisch vertretbar verwendet werden würde.
    • Dagegen: Beurteilung durch ein anderes Gremium nimmt mir als Informatiker*in das Pflichtbewusstsein eigene und fremde Arbeit kritisch zu betrachten.
  • Kann alles zivil _und_ militärisch genutzt werden kann? Beispiel Grundlagenforschung: Grundlagen für Zivil und Militär nutzbar. Deswegen sollte nicht mit Grundlagenforschung aufgehört werden.
  • Alles was entwickelt wird, kann militärisch genutzt werden: Nur, weil ich mir etwas ausdenke, können Menschen sterben. Dann müssten wir aufhören zu forschen. Wo muss/sollte ich aufhören? Dilemma in der Forschung.
    • 'Immer wenn man etwas forscht, schadet man und hilft man gleichzeitig.'
  • Alles könnte bedenkliche Komponenten haben. 'Es muss einzeln entschieden werden, ob ein bestimmtes Forschungsvorhaben zugelassen wird.'
  • Grundlagenforschung der Informatik hat ihren Ursprung in der Militärforschung. Es wird mit Militärmitteln weiterentwickelt. Zivilklausel schützt nicht vor Nutzung im Militärbereich.
  • Vorschlag: Man könnte Forschungsergebnisse so publizieren, dass ihre militärische Nutzung "by design" erschwert wird.
  • Wofür kann das, was ich da erforsche genutzt werden?
  • Vieles an Forschung, was heute wichtig ist, wurde durch Militärgelder finanziert. Ist irgendwie ganz schön traurig.
  • Gerade diese Forschung wird nicht für zivile Zwecke genutzt.
  • Es sollte keine höher gestellte Instanz/Gremium geben, die über die Zulassung von Forschung entscheidet, sondern jemand, der den Überblick hat. Ein weit vermaschtes Netz von vielen Informatikern und Nicht-Informatikern sollte geschaffen werden. Große Diskrepanz der Meinungen zwischen Informatiker*innen und Nicht-Informatiker*innen (bsp. Datenschutz).
  • Vor dem Hintergrund der größer werdenden Bedeutung von Informatik eine breite Diskussion(-skultur) anregen.
  • Informatiker*innen sollten mehr miteinander reden und Vernetzung ist sehr wichtig.
  • Die Informatik ist ein Kind des amerikanisches Militärs.
  • Forschungsergebnisse sollten nicht verheimlicht werden, um eine eventuelle millitärische Nutzung zu verhindern.
  • Was ist eigentlich millitärisch? "Gewalteinwirkung?" "Eindeutig Menschen tötend?"
  • Reden viel über militärisch aber es fehlt die Abgrenzung. Eine Institution die militärisch gesehen wird könnte auch Instagramm sein, allein, weil Leute aus dem Gebiet es verwenden. Viele Anwendungen sind für Militär weniger wichtig als andere. Wir sind vermutlich mit Navigationsgeräten zur KIF angereist, obwohl die Technologie vom Militär entwickelt wurde. Trotzdem kann man dadurch viel mehr im zivilen Sektor helfen. Begünstigt solche Software eher Gewalteinwirkung als einen zivilen Vorteil?
  • Es ist sinnvoller über die Masstäbe nachzudenken, die man für sich selber ansetzen möchte.
  • Maßstäbe: Abwiegen Zivile vs Militärische Auswirkung. Welche Kriterien? Menschen haben es in zivilen Anwendungen wie z.B. Bus, im Wald verlaufen, auch ohne GPS geschafft. Bei Bomben hätte das abhanden sein von GPS eine größere Auswirkung.
  • Szene: Militärprojekt wird bojkottiert indem man nicht teilnimmt (einfach dagegen sein). Stattdessen sollte das an die Öffentlichkeit getragen werden. Den Inhalt des Projektes kund tun.
  • Projekte an Unis sind schon öffentlich einsehbar. Viel Forschung ist (mehr in US) vom Militär finanziell abhängig/davon beeinflusst.
  • "Informatik ist ein Kind des Militärs": Das ist ein Problem. Es sollte lieber eine staatliche Grundfinanzierung geben -- allerdings ist das Millität auch staatlich.
  • Man kann zu seiner Software eine Lizenz verfassen, sodass sie vom Militär nicht verwendet werdet darf.
  • Widerspruch: Zivile Anwendung des GPS ist sinnvoll.
  • Heißt, für staatliche Zwecke zu arbeiten und forschen auch indirekt für Militär zu arbeiten und zu forschen?
  • Wenn ich es nicht erforsche, macht es dann jemand anderes? (Bsp.: Atombombe)
  • Dilemma mit der Argumentation -> Bsp: Falls wir keine Waffen an Terroristen verkaufen macht es sicher sowieso jemand anderes.
  • Gibt es eine Komfortzone, wo ich als Forscher mit gutem Gewissen forschen kann? Wir brauchen Grundsätz/Regeln
  • Wertekontext ist eine persönliche Entscheidung.
  • Es gäbe keine Forschung, die nicht militärisch genutzt werden kann. Man kann nur abwägen, wieviel mehr zivile Vorteile sie bringt.
  • Ist der Entwickler für die Folgen verantwortlich, oder der Endanwender?
  • Die Gesellschaft an sich soll die Entscheidung treffen, nicht der einzelne Informatiker.

Auswirkung auf die Gesellschaft:

  • Persönlich: Computer nehmen eine zu große Rolle in meinem Leben ein. Nachts klingelt das Handy, oder eine Mail und man wird darauf angesprochen, wenn man nicht geantwortet hat. Als hätte man kein Privatleben.
  • Das Verlernen von Handwerkskünsten ist eine Stufe der Industrialisierung.
  • Entstehung neuer Handwerkskünste durch die Informatik.
  • Verlagern sich die Künste nur?
  • Es gibt einen 'Maschinen nehmen uns die Arbeit weg, endlich.'-Sticker
  • Wir reden kaum mehr miteinander, ist das Argument. Jedoch wurde das bei der Erfindung der Zeitung schon gesagt. Wie wir weniger kommunizieren hat sich einfach verändert.
  • Ab wann sind Maschienen so gut, dass die Arbeit eines Menschens überflüssig wird? Ist das gut oder schlecht?
  • Problem: Ein Programmierer ersetzt die Arbeit vieler Menschen.
  • Man Sorgt dafür, dass es weniger Arbeit in der Welt gibt, aber dadurch gefährden wir die Existenz der Arbeiter.
  • Eigentlich wollen wir alle weniger arbeiten. Es ist weniger das Problem, dass wir Arbeitsplätze vernichten, sondern, dass in der Gesellschaft verankert ist, eine 40std Arbeitswoche zu schaffen. Die Leute wollen Arbeit.
  • Ist es das Problem, dass eine Person nicht mehr arbeitet, weil ihr Arbeitsplatz überflüssig wurde oder ist es das Problem, wie die Gesellschaft damit umgeht?
  • Zentrales Problem: Was ist Arbeit? "Geld verdienen um zu überleben?"
  • Was machen wir mit den Ressourcen, wenn wir nicht mehr Arbeiten müssen
  • "Maschienen werden uns die Arbeit abnehmen" dachte man schon länger. Es ist nicht passiert
  • Es geht nicht um Wachstum der Wirtschaft. Wieso nicht leben mit dem gleichen Wohlstand (Einwurf: "Les 'Animal Farm'!")
  • Effizienzsteigerung nutzen um den Arbeitern mehr Freiraum zu schaffen und nicht nur um mehr zu produzieren.
  • Maschinen vernichten und schaffen Arbeit. Die Arbeit wird nur umgewandelt "Muskelarbeit zu Kopfarbeit".
  • Stress und Leistungsdruck entsteht nicht durch Maschienen, sondern unsere Wirtschaft.
  • Arbeit ist meist als Mittel um Geld (und damit Haus, Essen,...) zu verdiehen gesehen. Arbeit sollte nicht nur als das gesehen werden, was am Ende auf dem Konto steht.
  • Wir programmieren nicht um Arbeit los zu werden.
  • Arbeit ist nicht immer positiv, aber es wird gemacht weil es Spaß macht. Arbeit sollte nicht als Belastung angesehen werden.
  • Diskussion geht schon seit über 200 Jahren.
  • Sind wir bei Kapitalismuskritik angekommen?
  • Informatik bringt eine komplett neue/besondere/eigene Effizienzsteigerung vorallem in Bezug auf Künstliche Intelligenz.
  • Kapitalismus Kritik: Vernichtet Informatik Arbeit? -> eher nicht
  • Haben wir als Informatiker*innen besonderem Einfluss auf die Gesellschaft -> ja
  • Autonome Systeme / KI -> absolut

Thema: Autonome Systeme / KI

  • Gedankenspiel: Wandel in der Gesellschaft hin zur Technokratie
  • Techniker werden keine Elite bilden, sondern Reiche. Es gibt keine "einzelnen" Techniker, sondern nur große hierarchische Arbeitsgruppen.
  • Gegenbeispiel: Großer Computer...?

Szene: Google Car, Fahrer sitz in Auto. Entscheidungkonflikt: Kinder auf der Straße überfahren oder FAusweichen und eine Klippe runterstürzen. Programmierer musste nun entscheiden.

  • Keine Zeit für Beispiel. Wird verworfen. Das ist ein uraltes Dilemma der Moral.


Datensicherheit

  • Szene: Siehe oben. Beispiel Datensicherheit.
  • Sollte er diese Daten weitergeben?
  • Szene ist nicht hypothetisch, sondern existiert in ähnlicher Form real.
  • Art der Beschuldigung (Student würde den Täter "decken") ist grundauf falsch. Unfaires Spiel mit gesellschaftlichen Werten. Das Verbrechen wird nicht schlimmer/ wird nicht ungeschehen durch nichtherausgabe des Fingerabdruckes.
  • Autokennzeichen waren auch nie dafür vorgesehen herausgegeben zu werden, werden sie mittlerweile jedoch.
  • Die Frage sei nicht ob er es tun sollte, sondern ob die Polizei es verlangen darf. Gesetze sprechen dagegen.
  • Möglichkeit "by Design" verhindern, dass der Student diese herausgeben kann. In realen Mensa-Karten-Systemen gibt es übrigens keine solche zentrale Datenbank.
  • Von Menschen anvertraute Daten (Data mining) herausgeben? Ja oder Nein?
  • Real live Beispiel: Entführung wurde aufgeklärt, weil wiederrechtlich angefertigtes Material (Überwachungskameras) ausgewertet wurde.
  • Heiligt der Zweck die Mittel? Nein
  • Ja, weil Material schon gegeben war
  • Freiheit steht Sicherheit gegenüber.
  • Daten sind nicht zweckgebunden. Massengentests sind da ein Musterbeispiel.
  • Es gibt zu viele Überwachungskameras.
  • Einige Kameras sind nur Attrappen.
  • Auch Attrappen sind negativ. Sie geben das Gefühl überwacht zu werden. Menschen halten sich eher an die "Norm", wenn sie sich überwacht fühlen.
  • Wozu gibt es Polizei? Würde das Morden losgehen, wenn Polizei nichts zu sagen hätte?
  • Man braucht Regeln in einer Gruppe. Man hat Arschgeigen/Trolle. Man braucht jemanden der Regeln enforced. Muss ich deswegen überwachen?
  • Polizeiaufgaben müssen nicht unbedingt von Polizei übernommen werden. Ein (schlechtes) Beispiel: Mafia. Gutes? Beispiel: Nachbarschaftswachen.
  • Persönlich: Es sollen "gelebte" (gesellschaftliche) und nicht unbedingt geschriebene (juristische) Regeln durchgesetzt werden.

Sicherheitslücken:

  • Szene: Siehe oben. Beispiel Sicherheitslücken
  • Hat Steve richtig gehandelt?
  • Mögliche Handlungen:
    • Sicherheitslücken müssen intern gemeldet werden und erst nach einer Frist veröffentlichen (Respondsable Disclosure).
    • Full disclosure: Sofort veröffentlichen. Wenn man nicht davon ausgeht, dass die Frist von der Firma genutzt wird, dann ist es besser sofort zu veröffentlichen, damit die Sicherheitslücke n Tage weniger besteht, wobei n für die anzahl Tage der Frist steht.
    • No disclosure: Nicht melden, sondern ausnutzen. Verwerflichkeit ist nicht umstritten.
  • Man sollte Unterscheiden wem der Fehler schadet. Der Firma? Den Usern? Full disclosure sollte nicht das Testen ersetzen
  • Manche Firmen zahlen für das Finden von Sicherheitslücken Geld.
  • Zahlen für Sicherheitslücken anstatt ausführlicherem Testen: BWLer Lösung für ein Informatikproblem. Sehr unelegant.
  • Vergleich zum Gefangenendilemma wird aufgeführt, ist jedoch nicht darauf applizierbar.


Bisherige AKs[Bearbeiten]

  • Auf der KIF 35.0 in Karlsruhe wurde im Kontext des Terrorismus viel über die Sicherheit unserer Daten gesprochen und offene Briefe versandt.
  • In Regensburg zur KIF 35.5 ging es hauptsächlich darum, möglichst keine digitalen Fußspuren zu hinterlassen.