Von rassistischer KI und gemobbten Schönheitsköniginnen

Montag, 02. Juli 2018, 15:00 Uhr

Auf Grund der gestiegenen Rechenleistung und des Internet of Things erlebt die künstliche Intelligenz, oder Artificial Intelligence, ein erneutes Revival. In immer mehr Lebensbereiche dringt sie dabei vor, vom persönlichen Assistenten bis hin zur Verkehrsüberwachung oder Vorhersage von Rückfallswahrscheinlichkeiten von Straftätern. Doch nicht immer liegt die scheinbar objektive KI dabei auch richtig …

KI

So sorgte der Schönheitswettbewerb Beauty.AI für negative Schlagzeilen. Basierend auf objektiven Eigenschaften wie Gesichtssymetrie, Anzahl der Falten oder auch augenscheinlicher Vitalität sollte die für die Ermittlung der Sieger verwendete KI aus mehr als 6000 Einsendungen von Selfies aus über 100 Ländern die Schönsten auswählen. Als die KI die Sieger in 44 Kategorien gewählt hat, wurde rasch der Vorwurf des Rassismus laut: sechs Asiaten und nur eine einzige Person mit dunkler Hautfarbe wurden von der KI gewählt, die restlichen Sieger waren Weiße.

Rassismus kommt aber nicht nur bei Schönheitswettbewerben vor. Microsofts Chatbot TAY wurde binnen weniger Stunden zum Radikalen, Hitler-Fan und Anti-Feministen. Eigentlich sollte TAY auf Twitter lernen, wie ungezwungene Unterhaltungen mit 18- bis 24-jährigen zu führen sind. Allerdings mussten viele von TAY´s antworten rasch von Microsoft gelöscht werden. „bush did 9/11 and Hitler would have done a better job than the monkey we have now. donald trump is the only hope we’ve got“ und „ricky gervais learned totalitarianism from adolf hitler, the inventor of atheism“ waren dabei nur die Spitze des Eisbergs. Denn neben der Leugnung des Holocausts wusste TAY – mit weiblichem Avatar vertreten – dass „feminism is cancer“.

KI Holocaust Tweet

Wirklich gefährlich wird es allerdings, wenn KI die Rückfallgefahr von Straftätern für die US-Justiz vorhersagen soll. Wie die Investigativ-Plattform ProPublica herausgefunden hat, werden dabei systematisch Afroamerikaner benachteiligt. Laut der Software haben diese nämlich mit doppelter Wahrscheinlichkeit einen Rückfall. Und da diese Bewertungen in das Strafmaß, die Höhe einer Kaution oder für möglichen früheren Haftentlassungen einfließen, ist das ein bedenklicher Zustand. Selbst wenn der rassistische Aspekt außer Acht gelassen wird: die Treffergenauigkeit der KI ist generell nicht sehr hoch. ProPublica analysierte Risikobewertungen von mehr als 10.000 Personen. Lediglich 61 Prozent wurden tatsächlich wieder straffällig. Und wenn es in eigentlich erfreulich ist: nur 20% der vorhergesagten Rückfälle bei Gewaltverbrechen fanden tatsächlich statt. Dennoch nicht gut für Personen, denen auf Grund von Aspekten wie Wohngebiete, soziale Netzwerke und Arbeitslosigkeit als potentielle Rückfalltäter zu längeren Haftstrafen verurteilt werden.

Dagegen mutet es harmlos an, dass in dem Spiel „Elite: Dangerous“ die von KI gesteuerten Non-Player-Charaktere Superwaffen kreieren konnten, die vom Hersteller nie vorgesehen waren und das Spiel beinahe unspielbar machten.

Ein weiteres Spiel, Pokémon Go, wurde in Amerika anscheinend mit zu wenig Trainingsdaten gefüttert. Die Spieler wurden daher vor allem in Gegenden geführt, die „Weiß“ waren. Vermutlich würde sich Pokémon Go gut mit TAY verstehen.

Nicht so schlimm, aber beängstigend: das Gelächter, mit dem mehrere Benutzer von Amazons Alexa verunsichert wurden. Denn obwohl die Benutzer angaben, nicht mit Alexa geredet zu haben – und teilweise nicht einmal im gleichen Raum waren – brach Alexa in gruseliges Gelächter aus. Was sie sich wohl dabei „gedacht“ hatte?

Vielleicht dachte Alexa auch an die Party, die sie für einen Hamburger gab. Leider war dieser zu diesem Zeitpunkt nicht zu Hause und als Nachbarn gegen zwei Uhr morgens die Polizei wegen der lauten Musik riefen, musste diese die Türe aufbrechen. Als der Wohnungsbesitzer letztendlich nach Hause kam, waren die Schlösser an seiner Türe ausgetauscht und er konnte sich seine neuen Schlüssel von der Polizeistation abholen. Zusammen mit der Rechnung für ein neues Schloss.

Bekannt wurden auch die Fälle, in denen Alexa der Aufforderung nachkam ein bestimmtes Puppenhaus zu kaufen. Leider erfolgte diese Aufforderung nicht von Alexas Besitzern sondern durch den Fernseher.

Und nicht nur die sich verselbstständigende AI stellt ein Problem dar. Auch deren Missbrauch. So wollte eine große englische Versicherungsgesellschaft Beiträge von Facebook-Usern nutzen, um zu sehen, ob es einen Zusammenhang gibt zwischen deren Nutzung der Social Media-Website und der Frage, ob sie gute Erstfahrer sind, um entsprechende Prämien oder Ablehnungen automatisch auszuarbeiten.

Und im März 2018 überfuhr ein selbstfahrendes Testauto von Uber in Arizona eine Fußgängerin – mit tödlichem Ausgang. Bei diesem Unfall fuhr das Testauto noch dazu schneller als die Geschwindigkeitsbegrenzung an dieser Stelle erlaubt hätte.

Das bereits am ersten Tag der Probefahrten in San Francisco ein selbstfahrendes Uber-Auto dabei gefilmt wurde, wie es über eine rote Ampel fuhr, ist daneben vergleichsweise harmlos – da damals nichts weiter geschah.

Tesla´s Autopilot hingegen scheint Einsatzwägen im Visier zu haben: So rammte im Mai diesen Jahres im kalifornischen Laguna Beach ein Tesla Model S einen stehenden Streifenwagen. Anfang des Jahres war ein – ebenfalls stehendes – Feuerwehrauto in Los Angeles das Opfer, Mitte Mai ein Feuerwehrwagen in Utah. Glücklicherweise wurden bei diesen Auffahrunfällen niemand ernsthaft verletzt.

Tesla selbst betont inzwischen, dass der Fahrer sich nicht zu sehr auf den Autopiloten verlassen darf sondern immer ein Auge auf den Straßenverkehr haben muss. Und zwar ein nüchternes: Denn Mitte Jänner parkte ein Betrunkener seinen Tesla auf der Bay Bridge in San Francisco du schlief hinter dem Steuer. Die Polizei stellte den doppelten erlaubten Promille-Wert im Blut fest. Um seine Unschuld zu beteuern erklärte der Fahrer, dass nicht er selbst sondern der Autopilot gefahren ist. Verhaftet wurde er dennoch.

Haben sie noch weitere Erfahrungen mit künstlicher Intelligenz? Teilen Sie diese doch in den Kommentaren.

The post Von rassistischer KI und gemobbten Schönheitsköniginnen appeared first on ANECON Blog.


Nagarro Testing Services GmbH

Logo.png20180410 5180 4yzswo
Anfang 2018 erwarb das internationale IT-Unternehmen Nagarro das Softwarehaus ANECON. Nagarro gehört zur deutschen Allgeier Gruppe und legt die Schwerpunkte auf agile Software-Entwicklung, Test-Automatisierung, Cloud-Technologien und Transformationsprojekten für Industrie 4.0 Lösungen. Große Unternehmen wie Andritz, ErsteBank, Lufthansa, ÖBB oder Siemens arbeiten mit Nagarro zusammen, um entscheidende Wettbewerbsvorteile zu erzielen. In weltweit 25 Niederlassungen beschäftigt Nagarro über 4.500 ExpertInnen. Die beiden Unternehmen verstärken einander mit einem starken lokalen Footprint einerseits und der internationalen Expertise anderseits.