0 Künstliche Intelligenz: Dumme Computer noch dümmer machen | connectiv.events
Seite auswählen

Bild: Pixabay

Künstliche Intelligenz: Dumme Computer noch dümmer machen

31. Dezember 2017 | Autarkie | Freies Leben | Psychologie | Gesellschaft | Wissenschaft | Forschung | Golem

Computerbasierte Entscheidungen können schon heute das Leben vieler Menschen beeinflussen. Was dahinter steckt, und wie man sich gegen künstliche Intelligenz wehren kann, haben Hacker auf dem Kongress des Chaos Computer Clubs gezeigt.

Dass Computer doof sind, wissen wir spätestens seit dem bekannten Spliff-Lied aus dem Jahr 1982. Doch seit den doofen Computern sogar zugetraut wird, selbstständig Auto zu fahren, und sie sich selbst beibringen können, die besten menschlichen Go-Spieler zu besiegen, scheint ihr Image deutlich besser zu werden – allerdings nicht bei den Hackern. Auf dem diesjährigen Kongress des Chaos Computer Clubs in Leipzig warnten mehrere Forscher vor den Gefahren der künstlichen Intelligenz (KI). „Wir wissen alle, wie dumm Computer manchmal sind, sie sind ziemlich schlimm“, sagte die Datenanalystin Katharine Jarmul in ihrem Vortrag.

In vielen Projekten zur künstlichen Intelligenz geht es grob gesagt darum, Computern beizubringen, bestimmte Objekte und Situationen zu erkennen und von anderen zu unterscheiden (lat. intellegere), um daraus bestimmte Entscheidungen ableiten zu können. Sowohl Jarmul als auch die deutschen Forscher Karen Ullrich und Hendrik Heuer versuchten in ihren Beiträgen am Donnerstag, die Grundlagen von KI auf der Basis des sogenannten maschinellen Lernens mit Hilfe neuronaler Netze zu erläutern.

Bewertungsprogramme alles andere als neutral

Ihre wenig revolutionäre Erkenntnis: Computer sind alles andere als perfekt, wenn es beispielsweise darum geht, Spam-Mails von „richtigen“ Mails zu unterscheiden oder potenzielle Straftäter von vermeintlich rechtschaffenen Bürgern. Ein selbstlernendes System werde zwar am Ende nie in der Lage sein, den Inhalt einer E-Mail zu verstehen, erläuterte Heuer. Allerdings könne es unter Berücksichtigung der Fehler seine Parameter verbessern, um eine höhere Trefferwahrscheinlichkeit bei Werbemails zu erzielen und seine Fehler künftig zu verringern.

Die Fehlerquoten hindern staatliche Behörden in den USA jedoch nicht daran, bereits heute Programme wie Compas einzusetzen, um die Wahrscheinlichkeit zu berechnen, mit der bestimmte Personen wieder eine Straftat begehen könnten. Das Problem: Die Programme seien alles andere als neutral und unvoreingenommen, heißt es in einer Untersuchung des US-Portals Propublica aus dem Jahr 2016. Afroamerikaner würden gegenüber Weißen systematisch diskriminiert. „Das macht Machine Learning, pseudo-objektive mathematische Modelle, zu einer Art Geldwäsche für Vorurteile“, sagte Heuer.

Er ist ein Kerl, er ist eine Gastgeberin

Wie trivial sich dabei bestimmte Fehler erklären ließen, erläuterte Ullrich am Beispiel von Googles Übersetzungsprogramm. Werden die beiden deutschen Sätze „Sie ist eine Frau. Sie ist Ärztin“ ins Türkische hin- und zurückübersetzt, lautet das Ergebnis: „Sie ist eine Frau. Er ist Arzt.“ Weil das Türkische keine grammatikalischen Geschlechter kenne, nehme Google die Aussage mit der höchsten Wahrscheinlichkeit bei der Übersetzung ins Deutsche. Der Kontext, in diesem Falle der vorangegangene Satz, spiele keine Rolle. Der Satz „Sie ist eine Frau, sie ist Ärztin“, werde wegen des Kommas hingegen zusammen und damit korrekt hin und her übersetzt.

Ob hinter solchen Effekten tatsächlich gesellschaftliche Vorurteile stecken oder einfach nur schlechte Algorithmen, ist aber nicht so klar. So übersetzt Google den Satz „Sie ist eine Frau, sie ist eine Stewardess.“ hin und zurück aus dem Türkischen mit „Er ist ein Kerl, er ist eine Gastgeberin.“ Fehlt am Satzende der Punkt, wird das weibliche Geschlecht hingegen beibehalten. Angesichts dieses Unsinns stellt sich die Frage, ob es künftig wirklich sinnvoll sein könnte, die künstliche Intelligenz mit einem „feindlichen Lernen“ zu foppen.

Deep-Learning-Systeme austricksen

Wie dieses Adversarial Learning funktioniert, erläuterte Jarmul in ihrem Vortrag zu „Blinden Flecken beim maschinellen Lernen“. Mit solchen Verfahren sollen selbstlernende Systeme dazu gebracht werden, „falsch“ zu lernen, beispielsweise Spam-Mails nicht als Spam oder Malware nicht als Schadecode zu erkennen. Gefährliche Angriffe könnten damit auch gegen selbstfahrende Autos ausgeführt werden. So hatten US-Wissenschaftler zuletzt mit manipulierten Verkehrsschildern die Kamerasysteme genarrt.

Inwieweit Systeme aufgrund der bewusst manipulierten Ausgangsdaten tatsächlich falsch lernen oder nur das bisher Gelernte falsch anwenden, ist jedoch unklar. Autofirmen sehen beispielsweise den Einsatz von lernenden Algorithmen, die das Fahrverhalten während der Fahrzeugnutzung ändern können, derzeit nicht vor. Damit soll gewährleistet werden, dass sich ein Fahrzeug immer reproduzierbar verhält und nicht seine eigenen Verkehrsregeln aufstellt. Problematisch könnte es hingegen werden, wenn ganze Fahrzeugflotten sich falsch im Verkehr verhielten und die Algorithmen entsprechend angepasst würden.

Digitale Selbstverteidigung mit feindlichem Lernen

Für Jarmul können einige der genannten Angriffe auch der digitalen Selbstverteidigung dienen, um die Rechte der Nutzer vor der zunehmenden Ausforschung durch die großen IT-Konzerne oder staatliche Behörden zu schützen. Auf diese Weise ließen sich beispielsweise die privaten Daten „vergiften“, um deren Analyse durch KI-Systeme zu erschweren. Als einfaches Beispiel nannte sie die Möglichkeit, ein persönliches Foto solange zu verfremden, bis es von Facebook nicht mehr als Gesicht erkannt werde. Auch eine Art Geheimschrift ließe sich mit solchen Verfahren entwickeln.

Die historischen und politischen Hintergründe dieser Entwicklung hatte der Berliner Informatiker und Philosoph Rainer Rehak bereits am Mittwoch zu analysieren versucht. Seiner Ansicht nach steht hinter der Datensammelwut von Konzernen und Regierungen auch der totalitäre Ansatz, alles berechenbar machen zu wollen. Nach dem Motto „Mehr Daten heißt mehr Wissen“ würde das Datensammeln zum Selbstzweck erklärt. Daten würden zu Fetisch.

Hat man Angst vor der KI oder den Firmen?

Rehak sieht dahinter eine „unheilige Allianz“ von wirtschaftlich sehr starken Firmen sowie Staaten, die aufgrund der neoliberalen Wirtschaftsordnung finanziell angeschlagen seien. „Halbverstandene Datenlösungen versprechen schnelle Erfolge“, sagte Rehak. Als Beispiel nannte er die Geheimdienste, die immer mehr Daten bekämen, aber die Datenmenge inzwischen gar nicht mehr bewältigen könnten. Es sei jedoch zweifelhaft, ob die digitale Revolution des Silicon Valley die Welt zu einem besseren Ort mache, und wer davon profitiere.

Am Ende stelle sich daher die Frage: „Hat man Angst vor einer KI, oder hat man Angst vor Unternehmen, die mit KI ihre eigenen Ziele durchsetzen?“, sagte Rehak. Anders als Spiele oder die Wirtschaft lasse sich die Gesellschaft nicht so leicht modellieren und mit Computerprogrammen abbilden oder berechnen. Auf Kriterien wie soziale Einbindung, Akzeptanz, Offenheit, Transparenz und Grundrechte ließen sich solche Systeme nur schwer ausrichten. Demokratie sei nicht immer effizient zu organisieren.

Weiter lesen auf:

https://www.golem.de/news/kuenstliche-intelligenz-die-dummen-computer-noch-duemmer-machen-1712-131893.html
Bildredakteur:

No items found

Textredakteur:

No items found

Quelle:

Golem

WP Twitter Auto Publish Powered By : XYZScripts.com

Pin It on Pinterest

Share This