dummies
 

Suchen und Finden

Titel

Autor/Verlag

Inhaltsverzeichnis

Nur ebooks mit Firmenlizenz anzeigen:

 

Coded Bias. Gesichtserkennungstechnologie als Träger und Vermittler von Diskriminierungen

Coded Bias. Gesichtserkennungstechnologie als Träger und Vermittler von Diskriminierungen

Hannah Jacobs

 

Verlag GRIN Verlag , 2021

ISBN 9783346426390 , 25 Seiten

Format PDF

Kopierschutz frei

Geräte

15,99 EUR

Für Firmen: Nutzung über Internet und Intranet (ab 2 Exemplaren) freigegeben

Derzeit können über den Shop maximal 500 Exemplare bestellt werden. Benötigen Sie mehr Exemplare, nehmen Sie bitte Kontakt mit uns auf.


 

Studienarbeit aus dem Jahr 2021 im Fachbereich Medien / Kommunikation - Multimedia, Internet, neue Technologien, Note: 1,0, Leuphana Universität Lüneburg, Sprache: Deutsch, Abstract: Dass Diskriminierung durch algorithmische Entscheidungssysteme und vor allem die Gesichtserkennungstechnologie produziert und reproduziert werden kann, zeigen verschiedene Beispiele aus dem Alltag. Wie Diskriminierungen entstehen, welchen Einfluss die Entwickler*innen und Nutzer*innen der Technologie haben und wie eine faire und gleichberechtigte Nutzung gewährleistet werden kann, soll im Folgenden geklärt werden. Dafür werden zuerst die technischen Grundlagen der Gesichtserkennungstechnologie dargestellt, die bei der Produktion von Ungleichbehandlungen eine wesentliche Rolle spielen. Im Fokus steht dabei das maschinelle Lernverfahren, vor allem das Deep Learning, welches den autonomen Lernprozess der Systeme bezeichnet und sich so dem menschlichen Einfluss und der Kontrolle immer mehr entzieht. Außerdem wird der Prozess der Gesichtserkennung näher untersucht und mit der menschlichen Fähigkeit, Gesichter zu erkennen und zu verarbeiten, verglichen Ob zum Entsperren des eigenen Smartphones, zur automatischen Sortierung von Fotos oder bei der Passkontrolle am Flughafen: Gesichtserkennungstechnologie nimmt einen immer größer werdenden Anteil unseres Lebens ein. Hinter der Technologie stecken algorithmische Systeme, die unter der Bezeichnung 'künstliche Intelligenz' zusammengefasst werden und seit Jahren sowohl die Technikindustrie als auch die Geisteswissenschaften beschäftigen. In der Vergangenheit hat sich jedoch bereits mehrfach gezeigt, dass die als neutral angesehene Technologie durchaus in der Lage ist, menschliche Einstellungen und Vorurteile zu übernehmen und auf seine Nutzer*innen anzuwenden. Ein Fall, der sich 2015 ereignete, sorgte besonders für Aufsehen und zeigte, dass diskriminierenden Praktiken durch Algorithmen reproduziert werden können. In der Kritik stand die Google Fotos Anwendung, die Bilder automatisch anhand von Gesichtserkennungsalgorithmen klassifiziert. In diesem Fall ordnete das System jedoch das Foto eines dunkelhäutigen Paares nicht den Menschen zu, sondern klassifizierte sie mit der Bezeichnung 'Gorilla'.