Digital Gesichtserkennung: IBM will Algorithmen, die nicht rassistisch oder sexistisch sind

18:35  29 juni  2018
18:35  29 juni  2018 Quelle:   wired.de

Verteidigerin: Zschäpes Weg in den Untergrund nicht politisch motiviert

  Verteidigerin: Zschäpes Weg in den Untergrund nicht politisch motiviert Verteidigerin: Zschäpes Weg in den Untergrund nicht politisch motiviert• Dass die Angeklagte besonders extrem gewesen sei und sich früh für den bewaffneten Kampf ausgesprochen hat, sei nicht belegt.

IBM will das jetzt ändern und stellt daher Datensätze ins Netz, mit denen Algorithmen trainieren können. Software zur Gesichtserkennung hat ein Problem: Die meisten Systeme wurden mit weißen, männlichen Probanden trainiert.

Gesichtserkennung : IBM will Algorithmen , die nicht rassistisch oder sexistisch sind .

  Gesichtserkennung: IBM will Algorithmen, die nicht rassistisch oder sexistisch sind © JohnnyGreig/iStock/Getty Images

Software zur Gesichtserkennung hat ein Problem: Die meisten Systeme wurden mit weißen, männlichen Probanden trainiert. Bei dieser Gruppe funktionieren sie also besser als beim Rest der Menschheit. IBM will das jetzt ändern und stellt daher Datensätze ins Netz, mit denen Algorithmen trainieren können.

Algorithmen zur Gesichtserkennung können rassistisch sein. Das wissen wir spätestens seit 2015. Damals beschwerte sich ein Software-Entwickler öffentlich bei Google: Eine KI des Konzerns hatte seine schwarzen Freunde auf einem Foto als „Gorillas“ gekennzeichnet. Das Unternehmen behob den Fehler – allerdings nicht durch einen schlaueren Algorithmus, der Menschen mit dunkler Haut besser erkennt.

Campus Festival Bielefeld: Kein Bock mehr auf Rapper Cro

  Campus Festival Bielefeld: Kein Bock mehr auf Rapper Cro Campus Festival Bielefeld: Kein Bock mehr auf Rapper CroDer AStA der Uni Bielefeld hat keinen Bock mehr auf Cro und will nicht, dass der Rapper beim anstehenden Campus-Festival auftritt.

IBM hebe sich mir Blick auf die Cloud-Lösungen von der Konkurrenz ab. Zudem sei das Wachstum im Analytics-Bereich dauerhaft./mis/la. Gesichtserkennung : IBM will Algorithmen , die nicht rassistisch oder sexistisch sind .

Wer unsere Gesichter wirklich will. Algorithmen stufen Menschen anhand von Fotos als schwul ein, und Apples neues Handy scannt Gesichter: Die Technik der Gesichtserkennung macht viele nervös. Datenschutz-Grundverordnung Die neuen Regeln sollten nicht die Falschen treffen.

Stattdessen verbannte man die Begriffe Gorilla, Schimpanse und Affe für den Dienst Google Photo einfach auf den Index. Anfang dieses Jahres suchten amerikanische WIRED-Kollegen dort nach Bildern der Primaten. Sie fanden: nichts. Google musste nach wie vor auf eine Notlösung setzen.

KI hat Probleme mit dunkler Haut und Frauen

Das Beispiel zeigt: Software zur Gesichtserkennung ist längst nicht perfekt. Gerade bei Frauen mit dunkler Haut steigt bei bisherigen Systemen die Fehlerquote. Sie können das Geschlecht oft nicht richtig erkennen. IBM will daran nun etwas ändern. Deshalb stellt das Unternehmen zwei Datenbanken mit Fotos zur Verfügung. Auch andere Firmen und Forscher sollen darauf zugreifen können.

Zur ersten Datenbank gehören eine Million Fotos, bei denen Attribute wie Augen- und Haarfarbe oder Bartwuchs vermerkt sind. Das zweite Datenpaket umfasst nur 36.000 Bilder. Diese sind aber gezielt zusammengestellt. Alle Hautfarben, Altersklassen und Geschlechter sollen vorhanden sein. IBM will mit den Fotos nicht nur die eigene KI weiterentwickeln. Auch andere Gesichtserkennungssysteme sollen damit verbessert werden.

Fußball-WM: Warum die sexistische Kritik an Neumann einfach nur peinlich ist

  Fußball-WM: Warum die sexistische Kritik an Neumann einfach nur peinlich ist Fußball-WM: Warum die sexistische Kritik an Neumann einfach nur peinlich istClaudia Neumann kommentiert bei der Fußball-WM Spiele fürs Fernsehen. Eine Frau als WM-Kommentatorin? Im Jahr 2018 sollte das kein Problem sein. Ist es aber - und das ist purer Sexismus, sagt unser NEON-Autor.

Ob Südkreuz, Facebook oder neues iPhone: Die Gesichtserkennung rückt in unser Leben. Was wissen die Algorithmen bereits? Was hier mit für jeden verfügbaren Mitteln mit einem Webcam-Foto möglich ist, wird woanders auf die Spitze getrieben: Sie wollen Ihre Doppelgänger finden?

Auch Technologie kann rassistisch oder sexistisch sein . Dabei können Algorithmen durchaus gefährlich sein, wenn sie so programmiert sind, dass sie rassistische oder sexistische Entscheidungen treffen. SZ-Serie Nahverkehr weltweit Helsinki will jedem die Möglichkeit geben

Nicht die größte Datenbank, aber die vielseitigste

Wie The Verge schreibt, ist die IBM-Datenbank mit einer Million Bildern nicht die größte der Welt, mit der Algorithmen trainiert werden. Laut IBM gibt es aber keine andere in diesem Umfang, die bereits Attribute zu den Gesichtern vermerkt hat. Über den zweiten Datensatz sagt Ruchir Puri, der Chefentwickler von IBM Watson: Er kenne keinen anderen, der einen so klaren Fokus auf Diversität legt. Die Fotos stammen von Flickr und wurden dort unter der Creative Commons Lizenz veröffentlicht. Sie stehen also für Forschung frei zur Verfügung.

Alltagsfrage: Warum zeigen eigentlich alle Wetter-Apps etwas anderes an? .
Alltagsfrage: Warum zeigen eigentlich alle Wetter-Apps etwas anderes an?Wird es heute nochmal sonnig? Muss ich für den Wochenendtrip einen Regenschirm einpacken? Immer mehr Menschen nutzen Wetter-Apps für die Wettervorhersage.

—   Teilen Sie Neuigkeiten in der SOC. Netzwerke
Das ist interessant!