Algorithm Transparency Bill NYC: Algorithmus-Transparenz-Gesetz

Algorithm Transparency Bill NYC: Algorithmus-Transparenz-Gesetz

 

Entscheidungen, die früher von Menschen getroffen wurden, werden heute durch Algorithmen getroffen. Das liegt vor allem auch daran, dass es heute deutlich mehr Daten über Verbraucher gibt. Die letzten Jahre wurden von einer kontinuierlichen Diskussion über die Vorteile und Herausforderungen begleitet, die mit der zunehmenden Nutzung von Big Data-Analysen einhergehen. Eines der umstrittensten Themen: Wie soll sichergestellt werden, dass die zunehmende automatisierte Entscheidungsfindung nicht zu unlauteren, unethischen oder diskriminierenden Auswirkungen für die Verbraucher führt?

James Vacca, New York City Council Member, schlug einen Gesetzesentwurf vor, der die Stadt dazu verpflichten würde, jegliche Computeranweisungen, die unsichtbar im Hintergrund in allen Regierungsentscheidungen verwendet werden, öffentlich und transparent zu machen.

Yung-Mi Lee, Supervising Attorney in the Criminal Defense Practice at Brooklyn Defender Services (BDS):

“The arrival of the digital age in the criminal legal system has been heralded by technology entrepreneurs, law enforcement leaders, and some academics, but it presents a series of new threats to the liberty and well-being of our clients that warrant deeper investigation.”

Regierungen haben Zugang zu gigantischen Datenmengen. Algorithmen können entscheiden, auf welche Schule Kinder gehen werden, wie oft der Müll abgeholt werden muss, welcher Polizeistation wie viele Beamte zugeteilt werden und welche Kriterien für die Bewertung von Lehrern herangezogen werden.

James Vacca:

“To this day, I don’t know what is the formula the police use to determine how many officers are in every station house.” 

Beispielsweise entscheidet ein Algorithmus, dass ein Kind auf eine Schule gehen soll, die relativ weit von der elterlichen Wohnung entfernt ist, anstatt das Kind auf eine der vielen Schulen in unmittelbarer Nähe zu schicken. Hier fragen Eltern zurecht, aufgrund welcher Kriterien eine solche Entscheidung getroffen wird. Der neue Gesetzesentwurf soll Transparenz schaffen, damit die Betroffenen die Entscheidungen von Algorithmen nachvollziehen können.

James Vacca:

"In our city, it is not always clear when and why agencies deploy algorithms, and when they do, it is often unclear what assumptions [those algorithms] are based upon and what data they even consider."

Welchen Effekt haben Algorithmen auf die Gesellschaft, wenn sie uns so viele Entscheidungen abnehmen?

Einfach gesagt ist ein Algorithmus eine Sammlung von Codes. Sie werden eingesetzt, um massive Datenmengen zu analysieren und so Muster zu identifizieren, Empfehlungen auszusprechen und Prognosen für die Zukunft zu erstellen. Sie können helfen, menschliche Fehler zu reduzieren, jedoch können sie auch dazu beitragen, dass existierende Ungleichheiten verstärkt oder bestehen bleiben. Obwohl Algorithmen anscheinend von Natur aus neutral sind, erfordert jeder Schritt bei der Erstellung eines Algorithmus, dass der Programmierer Entscheidungen trifft. Infolgedessen sind Algorithmen anfällig für menschliche Voreingenommenheit, schlechtes Urteilsvermögen, unvermeidbare Kompromisse und unvorsichtige oder unvorhergesehene Fehler in jedem Stadium der Entwicklung und Verwendung. Darüber hinaus spiegeln die Daten, mit denen Algorithmen trainiert werden, häufig bestehende Diskriminierungen und Disparitäten wider. Demzufolge werden Algorithmen oft selbst voreingenommen sein.

Das vorgeschlagene Gesetz Vaccas zielt nicht darauf ab, den Gebrauch von Algorithmen zu verbannen, sondern die Algorithmen der Allgemeinheit zur Untersuchung und für Tests zur Verfügung zu stellen. So soll es der Gesellschaft ermöglicht werden, die Entscheidungen von Algorithmen besser nachzuvollziehen und verstehen zu können.

Elizabeth Glazer, director of the Mayor’s Office of Criminal Justice:

“The big change for us is really just to make the process as open as possible, to ultimately post the data that underlies the tool publicly so that people can see for themselves how the tools operate.”

Doch die Gestaltung von algorithmischer Transparenz ist nicht einfach umzusetzen: Denn, selbst wenn ein Unternehmen einen geschützten Algorithmus für die Öffentlichkeit freigeben würde, wäre die Aufgabe des Verstehens und Reagierens äußerst schwierig. Es ist unwahrscheinlich, dass Verbraucher und politische Entscheidungsträger verstehen, was ein Algorithmus sagt oder bedeutet, er würde wahrscheinlich im Laufe der Zeit, oder als Reaktion auf neue Dateneingaben ständig geändert werden, und es wäre schwierig zu entscheiden, wie man Unfairness misst. Diese Herausforderungen können selbst Unternehmen, die sich mit der Vermeidung von Diskriminierung beschäftigen, verunsichern.

Testimony of Julia Stoyanovich:

“To facilitate transparency, the result of the self-test program should be interpretable, insightful and actionable.  For example, suppose that software is used to score and rank individuals for access to a service.  If a user enters her data and receives the result -- a score of 42 -- this will not explain to the user why she was scored in this way, how she compares to others, and what she can do to potentially improve her outcome.”

Abgesehen davon, wie man die Algorithmen der Allgemeinheit zur Verfügung stellen kann, gibt es noch weitere Aspekte, die beachtet und diskutiert werden müssen, bevor das Gesetz in Kraft treten kann. Unternehmen machen sich Sorgen, wie sie ihre Eigentumsrechte an ihren Algorithmen schützen können, wenn sie diese komplett transparent und für jeden zugänglich machen sollen. Des Weiteren muss diskutiert werden, ob durch die Transparenz potenzielle Sicherheitsrisiken entstehen.

Claire Fontaine, Forscherin bei Data & Society, einer New Yorker Expertenkommission:

“Whether and how such tensions get resolved could have national implications.”

Der Gesetzesentwurf in seiner aktuellen Fassung ist knapp formuliert und beinhaltet bis jetzt zusammengefasst, dass Behörden ihre Quellcodes online zur Verfügung stellen müssen und diese Benutzern so zur Verfügung stellen, dass sie durch die Eingabe ihrer Daten eigene Tests mit diesen Algorithmen durchführen können und ihnen auch die Ergebnisse dieser Tests mitgeteilt werden.

Aktuell gibt es noch viele Zeugenaussagen zur Fassung des Entwurfs und es ist davon auszugehen, dass sich der Entwurf noch ändern wird, bevor er in Kraft tritt.

 

English Deutsch

 A Local Law to amend the administrative code of the city of New York, in relation to automated processing of data for the purposes of targeting services, penalties, or policing to persons

Be it enacted by the Council as follows:

Section 1. Section 23-502 of the administrative code of the city of New York is amended to add a new subdivision g to read as follows:

g. Each agency that uses, for the purposes of targeting services to persons, imposing penalties upon persons or policing, an algorithm or any other method of automated processing system of data shall:

1. Publish on such agency’s website, the source code of such system; and

2. Permit a user to (i) submit data into such system for self-testing and (ii) receive the results of having such data processed by such system.

§ 2. This local law takes effect 120 days after it becomes law.

Ein Gesetz zur Änderung des Verwaltungsgesetzes der Stadt New York in Bezug auf die automatisierte Verarbeitung von Daten zum Zweck der Ausrichtung von Dienstleistungen, Sanktionen oder polizeilichen Überwachungen von Personen

 

Es soll folgendes gelten:

 

Abschnitt 1. Abschnitt 23-502 des Verwaltungsgesetzes der Stadt New York wird um eine neue Unterteilung g erweitert, die wie folgt lautet:

g. Jede Behörde, die für die Zwecke der Ausrichtung von Diensten an Personen, der Verhängung von Strafen für Personen oder der polizeilichen Kontrolle, eines Algorithmus oder eines anderen automatisierten Verarbeitungssystems von Daten verwendet, muss:

1. auf der Website der Behörde den Quellcode eines solchen Systems veröffentlichen; und

2. Benutzern erlauben (i) Daten in ein solches System für eigene Tests einzugeben und (ii) diesen die Ergebnisse der Verarbeitung der Daten durch ein solches System mitzuteilen.

§ 2. Das Gesetz tritt 120 Tage nach dem es Rechtskraft erlangt in Kraft.

Einen Kommentar schreiben

Tags

#bsen Limited Kinderrechte Telefon Markensperre brexit 3 UWG Mindestlohn Ferienwohnung Vergütungsmodelle Chat Google AdWords Wahlen ransomware fotos Unlauterer Wettbewerb Urlaub Datenschutzrecht Handelsregister Zahlungsdaten schule email marketing Reise kinderfotos Jahresrückblick Finanzierung TeamSpirit events Pseudonomisierung Löschung Textilien Team Urheberrechtsreform Spielzeug Kekse Behinderungswettbewerb Stellenangebot Urteil Facebook Kennzeichnung fristen E-Mail Kinder Voice Assistant datenverlust München Foto Neujahr Überwachung vertrag Barcamp ePrivacy Datenportabilität Journalisten Amazon EU-Kosmetik-Verordnung Rufschädigung Verbandsklage Messe LMIV Werktitel veröffentlichung Bestpreisklausel Sperrwirkung Suchfunktion Internetrecht Google Freelancer Soziale Netzwerke Impressumspflicht right of publicity Registered Umtausch Unionsmarke Einwilligungsgestaltung Blog Digitalwirtschaft USPTO Gepäck Scam PPC Presse Unternehmensgründung Bewertung Infosec Sperrabrede whatsapp JointControl Job Analytics privacy shield LikeButton Booking.com Hausrecht Dark Pattern Schöpfungshöhe Zustellbevollmächtigter Privacy Education News Wettbewerbsverbot Kosmetik Schadenersatz Hotelvermittler selbstanlageverfahren entgeltgleichheit Lizenzrecht Home-Office Art. 13 GMV total buy out BDSG Wettbewerb Online Shopping EU-Kommission Doxing Meinung KUG kommunen Cyber Security data privacy Datenschutzerklärung Pressekodex NetzDG Big Data Diskriminierung transparenzregister Heilkunde Medienrecht Spirit Legal fake news Arbeitsvertrag Gaming Disorder AfD Fotografie Minijob Datenschutzgesetz Xing technik Onlineshop Rechtsprechung ReFa § 5 MarkenG Vergleichsportale Asien html5 Urheberrecht Marke Dokumentationspflicht britain GmbH bgh gender pay gap Bundeskartellamt Radikalisierung Wettbewerbsrecht Namensrecht Hotel Haftungsrecht Algorithmen FTC Auslandszustellung Opentable targeting Kennzeichnungskraft data security § 5 UWG Vergütung Geschäftsgeheimnis handel Preisauszeichnung Adwords Hotellerie Technologie custom audience Deep Fake Social Media Kartellrecht AIDA § 15 MarkenG Know How Markenrecht Gegendarstellung Internet of Things Prozessrecht Europa Abhören Custom Audiences ISPs Kapitalmarkt Einzelhandel Rechtsanwaltsfachangestellte Unterlassung Abmahnung Hinweispflichten Recap Instagram Tipppfehlerdomain Referendar Mitarbeiterfotografie Erdogan

Die Rechtsanwaltssozietät Spirit Legal berät in- und ausländische Unternehmen mit internationaler Ausrichtung. Unser fachlicher Beratungsschwerpunkt liegt in den Bereichen E-Commerce, Gesellschafts-, Wettbewerbs-, Marken-, IT- und Datenschutzrecht. Dank unserer Branchenerfahrung sind wir in rechtlichen Fragen der spezialisierte Ansprechpartner für Start-ups, Reiseunternehmen und die Hotellerie.

© Spirit Legal 2013 - 2024, alle Rechte vorbehalten

Förderung von Fachanwaltskursen & anwaltlichen Fortbildungen durch SAB Sachsen: