Empfohlen, 2024

Die Wahl des Herausgebers

Die FTC ist besorgt über algorithmische Transparenz, und Sie sollten zu

Das Sweep-Verfahren der algorithmischen Geometrie

Das Sweep-Verfahren der algorithmischen Geometrie
Anonim

Es ist kein Geheimnis, dass Algorithmen einen Großteil der Technologie nutzen, mit der wir täglich interagieren, sei es bei der Suche nach Informationen bei Google oder beim Durchsuchen eines Facebook-Newsfeeds. Weniger bekannt ist, dass Algorithmen auch eine Rolle spielen, wenn wir zum Beispiel einen Kredit beantragen oder ein spezielles Marketingangebot erhalten.

Algorithmen sind praktisch überall, wo wir heute sind, was wir sehen, was wir glauben und was in zunehmendem Maße, was unsere Zukunft hält. Ist das eine gute Sache? Die US-amerikanische Federal Trade Commission ist, wie viele andere auch, nicht so sicher.

"Die Verbraucher interagieren täglich mit Algorithmen, ob sie es wissen oder nicht", sagte Ashkan Soltani, Cheftechnologe der FTC. "Bis heute haben wir wenig Ahnung davon, wie diese Algorithmen funktionieren, welche Anreize dahinter stehen, welche Daten verwendet werden und wie sie strukturiert sind."

[Lesen Sie weiter: Ihr neuer PC benötigt diese 15 kostenlosen, exzellenten Programme]

Vor ein paar Wochen hat das Verbraucherschutzamt der FTC ein brandneues Büro eingerichtet, um dieses Verständnis zu verbessern. Man nennt es das Amt für Technologieforschung und -forschung, und algorithmische Transparenz ist eines der Themen, auf das es sich konzentrieren wird, indem es externe Forschung unterstützt und eigene Studien durchführt.

Die Idee besteht darin, besser zu verstehen, wie diese Algorithmen funktionieren - welche Annahmen ihnen zugrunde liegen und welche Logik ihre Ergebnisse steuert - mit dem Ziel sicherzustellen, dass sie keine Diskriminierung oder andere schädliche Folgen ermöglichen.

Der Begriff "Algorithmus" kann für diejenigen, die mit Computerprogrammierung oder Mathematik nicht vertraut sind, einschüchtern , aber in der Tat "ein gutes Synonym für" Algorithmus "ist einfach" Rezept ", sagte Christian Sandvig, Professor an der School of Information an der Universität von Michigan. "Es ist nur ein Verfahren, um eine Aufgabe zu erfüllen."

Die Sorge entsteht, wenn die Algorithmen, die Aspekte unseres Lebens leiten, Ergebnisse produzieren, die wir nicht wollen. Die möglichen Beispiele sind zahlreich. Einige von ihnen sind ziemlich eindeutig: Diskriminierung bei Krediten, Wohnungen, Arbeit und Arbeitsplätzen oder unfaire Preispraktiken.

In einer klassischen Illustration aus dem Jahr 2013 fand eine Harvard-Studie aus dem Jahr 2013 heraus, dass Google nach "schwarz klingenden" sucht "Namen wie Trevon Jones erzeugten eher Anzeigen für öffentliche Suchdienste, die darauf hindeuteten, dass die fragliche Person einen Haftbefehl hatte.

Google hat auf eine Anfrage, diese Geschichte zu kommentieren, nicht geantwortet.

Andere Beispiele sind subtiler.

"Eines der Probleme ist, dass Algorithmen Medien und Informationen, denen wir ausgesetzt sind, zunehmend vermitteln, was Auswirkungen auf Dinge wie Politik haben kann", sagte Nick Diakopoulos, Professor an der Universität von Maryland Hochschule für Journalismus. "Wir wissen zum Beispiel, dass es einfach ist, die Menge an harten Nachrichten im Facebook-Nachrichten-Feed zu erhöhen, was dazu führt, dass mehr Leute zur Wahl gehen."

Algorithmen in den Medien werden auch zunehmend eingesetzt, um mögliche Zensurentscheidungen zu erleichtern , So Diakopoulos, etwa wenn automatisierte Systeme Moderatoren helfen, Online-Kommentare zu filtern und zu screenen und zu bestimmen, was als gültiger Kommentar gilt und was überhaupt nicht veröffentlicht werden sollte.

Dann gibt es auch Unternehmen wie Automated Insights und Narrative Science Nachrichten Geschichten im Maßstab "basierend auf nichts mehr als strukturierte Daten eingegeben", sagte er. So verkündete Automated Insights kürzlich, dass es pro Quartal 3.000 Gewinnberichte für die Associated Press produziert und veröffentlicht, die alle automatisch aus Daten generiert werden.

Abgesehen davon, dass es ein leuchtendes Beispiel für das Zeug ist, aus dem die Albträume der Journalisten bestehen ist auch mit einer Vielzahl von Genauigkeitsproblemen verbunden. "Eine schnelle Suche bei Google zeigt, dass die Tausenden von Berichten über automatisierte Erkenntnisse auch eine Reihe von Fehlern ergeben, die zu Korrekturen führen", sagte Diakopoulos. "Was wäre, wenn dies marktbewegende Fehler wären? Was ist die Quelle dieser Fehler: die Daten oder der Algorithmus? "

Algorithmen können sogar dazu führen, dass Technologiebenutzer anders denken und sich anders verhalten als sonst.

"Sagen wir, dass einer meiner Posts auf Facebook keine Likes bekommt", erklärte Sandvig. Während die wahrscheinlichste Erklärung ist, dass der Facebook-Algorithmus den Post einfach aus den News-Feeds von Freunden gefiltert hat, "fanden wir heraus, dass die Leute manchmal annehmen, dass ihre Freunde nicht wollen, dass sie über dieses Thema schreiben, und deshalb werden sie nicht darüber posten Es ist immer wieder so ", sagte er.

Was seinem Schöpfer wie ein ziemlich geradliniger Filter erscheint, könnte mit anderen Worten schnell zu etwas viel Größerem verschnaufen, das auch das Verhalten der Menschen verändert.

Also, was kann man dagegen tun? all dies?

Bemühungen wie die FTC, die Transparenz zu erhöhen, sind ein Ansatz.

"Eine Möglichkeit ist, dass Unternehmen Transparenzberichte über ihre wichtigsten Algorithmen erstellen müssen, um beispielsweise Fehlerquoten, Datenqualität und Daten zu messen "Eine andere Möglichkeit ist, dass neue Benutzerschnittstellen entwickelt werden könnten, die Endbenutzern mehr Informationen über die Algorithmen geben, die den Technologien zugrunde liegen, mit denen sie interagieren", schlug er vor.

Regulation ma Sie müssen auch ein Teil des Bildes sein, insbesondere wenn es darum geht, sicherzustellen, dass Wahlen algorithmisch nicht algorithmisch manipuliert werden können.

"Die Einbeziehung der Regierung wird sehr wichtig sein", stimmte Sandvig zu. "Illegale Dinge werden mit und ohne Computer passieren, und die Regierung muss in der Lage sein, damit umzugehen. Es ist keine Erweiterung der Regierungsgewalt - es ist etwas, das überfällig ist. "

Sandvig ist nicht davon überzeugt, dass erhöhte Transparenz notwendigerweise viel helfen wird. Selbst wenn ein Algorithmus explizit gemacht wird und inspiziert werden kann, kann das Licht, das er auf potenzielle Konsequenzen wirft, minimal sein, insbesondere wenn der Algorithmus kompliziert ist oder Operationen an großen Datensätzen durchführt, die nicht auch für die Inspektion verfügbar sind.

Anstelle von Transparenz konzentriert sich Sandvigs bevorzugte Lösung stattdessen auf auditier-systematische Tests der Ergebnisse der Algorithmen und nicht auf die Algorithmen selbst, um die Art ihrer Konsequenzen zu bewerten.

"In manchen Bereichen sind wir es nicht Wir werden in der Lage sein, die Prozesse oder die Absicht herauszufinden, aber wir können die Konsequenzen sehen ", sagte er.

Im Bereich des Wohnungswesens kann es zum Beispiel schwierig sein, die Algorithmen hinter Kreditentscheidungen zu verstehen ; viel einfacher und viel mehr Diagnose wäre eine Untersuchung der Ergebnisse, wie sind Menschen aller Rassen Hypotheken in allen Nachbarschaften?

Es ist eindeutig frühen Tagen in Bezug auf herauszufinden, die besten Ansätze für die möglichen Probleme in diesem Zusammenhang. Welche Strategien letztendlich auch immer übernommen werden, das Wichtigste ist jetzt, dass man sich der sozialen Konsequenzen bewusst ist, sagte Soltani von der FTC.

"Die Tendenz ist oft, Software ihre Sache machen zu lassen", sagte er. "Aber in dem Maße, in dem Software Vorurteile und Diskriminierung verstärkt, stehen immer noch normative Werte auf dem Spiel."

Top