Autor: Cao Jianfeng, leitender Forscher am Tencent Research Institute Fang Lingman, Assistenzforscher, Rechtsforschungszentrum, Tencent Research Institute Die EU fördert aktiv eine menschenzentrierte Ethik und Governance der KI Die Entwicklung und Durchdringung digitaler Technologien haben den Wandel der Gesellschaft und der Wirtschaft beschleunigt. Künstliche Intelligenz (KI) als zentrale Antriebskraft hat mehr Möglichkeiten für die gesellschaftliche Entwicklung geschaffen. Im Allgemeinen bezieht sich KI auf Algorithmen oder Maschinen, die auf der Grundlage bestimmter Informationsinhalte autonomes Lernen, Entscheidungsfindung und Ausführung erreichen können. Seine Entwicklung basiert auf der Verbesserung der Computerverarbeitungsleistung, der Verbesserung von Algorithmen und dem exponentiellen Wachstum der Daten. Von der maschinellen Übersetzung über die Bilderkennung bis hin zur synthetischen Erstellung von Kunstwerken beginnen verschiedene Anwendungen der KI in unseren Alltag Einzug zu halten. Heute wird KI-Technologie in vielen Branchen und Bereichen (wie Bildung, Finanzen, Bauwesen und Transport) eingesetzt und zur Bereitstellung verschiedener Dienste (wie autonomes Fahren, medizinische KI-Diagnose usw.) verwendet, was zu tiefgreifenden Veränderungen der menschlichen Gesellschaft führt. Gleichzeitig stellt die Entwicklung der KI auch rechtliche, ethische und gesellschaftliche Herausforderungen dar und bringt Probleme wie Fake News, algorithmische Verzerrung, Verletzung der Privatsphäre, Datenschutz und Netzwerksicherheit mit sich. Vor diesem Hintergrund erfahren die Ethik und Governance der künstlichen Intelligenz zunehmende Aufmerksamkeit. Von der Regierung über die Industrie bis hin zur Wissenschaft gibt es weltweit eine Welle der Auseinandersetzung mit der Formulierung ethischer Richtlinien für künstliche Intelligenz. Die Europäische Union untersucht seit 2015 aktiv Initiativen zur Ethik und Governance von KI. Obwohl sie bei der Entwicklung von KI-Technologien nicht die Initiative ergriffen hat, nimmt sie bei der KI-Governance weltweit eine Vorreiterrolle ein. Bereits im Januar 2015 beschloss der Rechtsausschuss des Europäischen Parlaments (JURI), eine Arbeitsgruppe einzurichten, die sich mit rechtlichen Fragen im Zusammenhang mit der Entwicklung von Robotern und künstlicher Intelligenz befassen soll. Im Mai 2016 veröffentlichte JURI den Berichtsentwurf mit Empfehlungen an die Kommission zu zivilrechtlichen Regelungen im Bereich Robotik und forderte die Europäische Kommission auf, die Auswirkungen künstlicher Intelligenz zu bewerten. Im Januar 2017 legte sie formell umfangreiche Empfehlungen zur zivilrechtlichen Regelung von Robotern vor und schlug die Formulierung einer „Robotik-Charta“ vor. [1] Im Mai 2017 veröffentlichte der Europäische Wirtschafts- und Sozialausschuss (EWSA) eine Stellungnahme zur KI. Darin wies er auf die Chancen und Herausforderungen hin, die KI in elf Bereichen wie Ethik, Sicherheit und Datenschutz mit sich bringt. Außerdem forderte er die Formulierung ethischer Standards für KI und die Einrichtung eines Standardsystems für die Überwachung und Zertifizierung von KI. [2] Im Oktober desselben Jahres wies der Europäische Rat darauf hin, dass die EU unverzüglich auf neue Trends im Bereich der künstlichen Intelligenz reagieren, ein hohes Maß an Datenschutz und digitalen Rechten sicherstellen und entsprechende ethische Standards formulieren müsse. Er forderte die Europäische Kommission auf, Anfang 2018 Vorschläge für Reaktionen auf neue Trends im Bereich der künstlichen Intelligenz vorzulegen. [3] Um die ethischen Fragen zu adressieren, die sich aus der Entwicklung und Anwendung künstlicher Intelligenz ergeben, hat die EU die Ethik und Governance im Bereich der KI zu einem zentralen Schwerpunkt ihrer künftigen Gesetzgebungsarbeit gemacht. Am 25. April 2018 veröffentlichte die Europäische Kommission das Strategiepapier „Künstliche Intelligenz für Europa“, das die lang erwartete EU-Strategie für künstliche Intelligenz darstellt. Die Strategie schlägt einen menschenzentrierten KI-Entwicklungspfad vor, der darauf abzielt, das wissenschaftliche Forschungsniveau und die industriellen Kapazitäten der EU zu verbessern, auf die technischen, ethischen, rechtlichen und sonstigen Herausforderungen zu reagieren, die künstliche Intelligenz und Roboter mit sich bringen, und es der künstlichen Intelligenz zu ermöglichen, der Entwicklung der europäischen Gesellschaft und Wirtschaft besser zu dienen. Die Strategie der EU für künstliche Intelligenz umfasst drei Säulen: Erstens die Verbesserung der technologischen und industriellen Fähigkeiten und die Förderung der breiten Durchdringung der Technologie der künstlichen Intelligenz in allen Lebensbereichen; zweitens: aktiv auf sozioökonomische Veränderungen reagieren, das Bildungs- und Ausbildungssystem mit der Zeit Schritt halten lassen, Veränderungen auf dem Arbeitsmarkt aufmerksam beobachten, Übergangsarbeiter unterstützen und vielfältige und interdisziplinäre Talente fördern; Drittens: Schaffung eines geeigneten ethischen und rechtlichen Rahmens, Klärung der Anwendbarkeit von Produktregeln sowie Entwurf und Formulierung ethischer Richtlinien für KI. [4] Im Juni desselben Jahres ernannte die Europäische Kommission 52 Vertreter aus Wissenschaft, Industrie und Zivilgesellschaft zur hochrangigen Expertengruppe für KI (AI HELP), um die Umsetzung der europäischen Strategie für künstliche Intelligenz zu unterstützen. Im Januar 2019 veröffentlichte der Ausschuss für Industrie, Forschung und Energie des Europäischen Parlaments einen Bericht, in dem das Europäische Parlament aufgefordert wurde, eine umfassende EU-Industriepolitik zu künstlicher Intelligenz und Robotik zu formulieren, die Cybersicherheit, den rechtlichen Rahmen, Ethik, Governance usw. von künstlicher Intelligenz und Robotik abdeckt. [5] Im April 2019 veröffentlichte die EU zwei wichtige Dokumente: die Ethikrichtlinien für vertrauenswürdige KI (die „Ethikrichtlinien“)[6] und den Governance-Rahmen für algorithmische Rechenschaftspflicht und Transparenz (der „Governance-Rahmen“)[7]. Mit diesen Dokumenten wird die Forderung der KI-Strategie der EU konkret umgesetzt, „einen geeigneten ethischen und rechtlichen Rahmen zu schaffen“. Sie dienen als Referenz für die Formulierung relevanter Regeln in der Zukunft und stellen die jüngsten Bemühungen der EU dar, die KI-Governance zu fördern. Aufbau eines KI-Ethikrahmens: Ein ethischer Leitfaden für vertrauenswürdige KI Um ein Gleichgewicht zwischen technologischer Innovation und dem Schutz der Menschenrechte herzustellen, ist die Schaffung eines ethischen Rahmens für die KI von entscheidender Bedeutung. Der ethische Rahmen bietet prinzipielle Leitlinien und grundlegende Anforderungen für die Gestaltung, Entwicklung, Produktion und Nutzung künstlicher Intelligenz und stellt sicher, dass ihr Einsatz den rechtlichen, sicherheitstechnischen und ethischen Standards entspricht. Die „Ethischen Richtlinien“ wurden von AI HELP erstellt und herausgegeben und sind nicht bindend. Die EU ermutigt alle Beteiligten, die „Ethischen Leitlinien“ aktiv umzusetzen und die Bildung eines internationalen Konsenses über ethische Standards im Bereich KI zu fördern. Insgesamt hofft die EU, dass neben der Entwicklung EU-weiter ethischer Leitlinien auch die ethische Steuerung der KI auf verschiedenen Ebenen sichergestellt werden kann. So können die Mitgliedstaaten beispielsweise Agenturen zur Überwachung und Aufsicht der KI-Ethik einrichten, Unternehmen zur Einrichtung von Ethikkommissionen ermutigen und ethische Richtlinien für die Entwicklung von KI formulieren, um ihren KI-Entwicklern und deren Forschungs-, Entwicklungs- und Anwendungsaktivitäten Orientierung und Grenzen zu geben. Dies bedeutet, dass die ethische Steuerung der künstlichen Intelligenz nicht auf der Ebene abstrakter Prinzipien verharren kann, sondern in die praktischen Aktivitäten verschiedener Subjekte und auf verschiedenen Ebenen integriert werden muss, um zu einem lebendigen Mechanismus zu werden. Gemäß den ethischen Richtlinien muss eine vertrauenswürdige KI drei Eigenschaften besitzen, ist aber nicht auf diese beschränkt: (1) Legalität, d. h., vertrauenswürdige KI sollte die Grundrechte der Menschen respektieren und bestehende Gesetze einhalten; (2) Ethische Konformität, d. h. vertrauenswürdige KI sollte die Einhaltung ethischer Grundsätze und Werte gewährleisten und „ethische Zwecke“ erfüllen; (3) Robustheit, d. h. aus der Perspektive der Technologie oder der gesellschaftlichen Entwicklung sollten KI-Systeme robust und zuverlässig sein, denn selbst wenn KI-Systeme ethischen Zwecken dienen, können sie dennoch unbeabsichtigt Menschen Schaden zufügen, wenn ihnen die Unterstützung durch zuverlässige Technologie fehlt. Konkret umfasst der ethische Rahmen vertrauenswürdiger KI die folgenden drei Ebenen: 1. Die Grundlage vertrauenswürdiger KI Zu den wichtigsten Grundrechten, die im internationalen Menschenrechtsrecht, der EU-Charta und einschlägigen Verträgen verankert sind und als Voraussetzungen für die Entwicklung von KI dienen können, zählen: persönliche Würde, persönliche Freiheit, Demokratie, Gerechtigkeit und Recht, Gleichheit, Nichtdiskriminierung und Solidarität sowie die legitimen Rechte der Bürger. Viele öffentliche und private Organisationen entwickeln ethische Rahmenbedingungen für KI-Systeme und lassen sich dabei von den Grundrechten inspirieren. So hat etwa die Europäische Gruppe für Ethik der Wissenschaften und Neuen Technologien (EGE) neun Grundprinzipien vorgeschlagen, die auf den Werten der EU-Charta und einschlägigen Verordnungen basieren. Basierend auf der überwiegenden Mehrheit der bestehenden Prinzipien fassen die „Ethischen Richtlinien“ vier ethische Prinzipien zusammen, die den Anforderungen der gesellschaftlichen Entwicklung gerecht werden, und verwenden sie als Grundlage für vertrauenswürdige KI, um Leitlinien für die Entwicklung, Bereitstellung und Nutzung von KI bereitzustellen. Zu diesen Grundsätzen gehören: (1) Respekt vor der Autonomie des Menschen. Menschen, die mit KI interagieren, müssen über die Fähigkeit zur vollständigen und wirksamen Selbstbestimmung verfügen. KI-Systeme sollten einer menschenzentrierten Philosophie folgen und dazu eingesetzt werden, den Menschen zu dienen, ihre Wahrnehmung zu verbessern und ihre Fähigkeiten zu verbessern. (2) Grundsatz der Schadensverhütung. KI-Systeme dürfen keine negativen Auswirkungen auf den Menschen haben. KI-Systeme und ihre Betriebsumgebungen müssen sicher sein. KI-Technologie muss robust sein und es muss sichergestellt werden, dass sie nicht böswillig eingesetzt wird. (3) Der Grundsatz der Fairness. Bei der Entwicklung, Bereitstellung und Nutzung von KI-Systemen muss sowohl inhaltliche als auch verfahrensmäßige Fairness gewährleistet sein. Zudem sollte sichergestellt werden, dass Nutzen und Kosten gleichmäßig verteilt werden und dass Einzelpersonen und Gruppen vor Diskriminierung und Voreingenommenheit geschützt sind. Darüber hinaus haben Einzelpersonen, die von Entscheidungen der KI und ihrer Betreiber betroffen sind, das Recht, Einspruch einzulegen und Wiedergutmachung zu verlangen. (4) Der Grundsatz der Interpretierbarkeit. Die Funktionen und Zwecke von KI-Systemen müssen offen und transparent sein, und der KI-Entscheidungsprozess muss denjenigen, die direkt oder indirekt von den Entscheidungsergebnissen betroffen sind, so weit wie möglich erklärt werden. 2. Realisierung vertrauenswürdiger KI Geleitet von den ethischen Grundsätzen der KI legen die ethischen Richtlinien sieben Schlüsselanforderungen fest, die bei der Entwicklung, Bereitstellung und Nutzung von KI-Systemen erfüllt werden sollten. Insbesondere werden die vier ethischen Grundsätze in den „Ethischen Richtlinien“ als ethische Werte auf höchster Ebene die grundlegendste Leitrolle bei der Forschung, Entwicklung und Anwendung vertrauenswürdiger KI spielen, die sieben Schlüsselanforderungen sind jedoch ethische Anforderungen, die umgesetzt werden können. Dies bedeutet, dass es sich bei der KI-Ethik um einen Governance-Prozess handelt, der von den Werten auf der obersten Ebene auf Makroebene über die ethischen Anforderungen auf der Mesoebene bis hin zur technischen Umsetzung auf Mikroebene reicht. 1. Menschliche Handlungsfähigkeit und Aufsicht Erstens sollte KI den Menschen dabei helfen, ihre Grundrechte auszuüben. Wenn KI aufgrund begrenzter technischer Möglichkeiten möglicherweise Grundrechte verletzt, sollte vor der Entwicklung des KI-Systems eine Folgenabschätzung für die Grundrechte durchgeführt werden und die möglichen Auswirkungen des KI-Systems auf die Grundrechte durch die Einrichtung eines externen Feedback-Mechanismus verstanden werden. Zweitens sollte KI den Einzelnen dabei unterstützen, fundiertere Entscheidungen auf der Grundlage seiner Ziele zu treffen, und die individuelle Autonomie sollte durch automatische KI-Entscheidungssysteme nicht beeinträchtigt werden. Schließlich müssen geeignete Kontrollmechanismen eingerichtet werden, wie etwa „Human-in-the-Loop“ (menschliches Eingreifen in jeden Entscheidungszyklus des KI-Systems), „Human-on-the-Loop“ (menschliches Eingreifen in den Entwurfszyklus des KI-Systems) und „Human-in-Command“ (Überwachung der gesamten Aktivitäten und Auswirkungen der KI und Entscheidung über deren Einsatz). 2. Technische Robustheit und Sicherheit Einerseits müssen wir sicherstellen, dass das KI-System genau, zuverlässig und wiederholbar ist, die Genauigkeit der Entscheidungsfindung des KI-Systems verbessern, den Bewertungsmechanismus verbessern und unerwartete Risiken, die durch fehlerhafte Vorhersagen des Systems verursacht werden, umgehend reduzieren. Andererseits müssen KI-Systeme streng geschützt werden, um Schwachstellen und böswillige Angriffe durch Hacker zu verhindern. Es müssen Sicherheitsmaßnahmen entwickelt und getestet werden, um unbeabsichtigte Folgen und Fehler zu minimieren. Außerdem müssen ausführbare Backup-Pläne für den Fall vorhanden sein, dass Systemprobleme auftreten. 3. Datenschutz und Datenverwaltung Die Privatsphäre und Daten der Benutzer müssen während des gesamten Lebenszyklus des KI-Systems streng geschützt werden, um sicherzustellen, dass die gesammelten Informationen nicht illegal verwendet werden. Während Fehler, Ungenauigkeiten und Verzerrungen in den Daten beseitigt werden, ist es notwendig, die Integrität der Daten sicherzustellen und den gesamten Prozess der KI-Datenverarbeitung aufzuzeichnen. Stärken Sie das Management von Datenzugriffsvereinbarungen und kontrollieren Sie die Bedingungen für Datenzugriff und -fluss streng. 4. Transparenz Die Rückverfolgbarkeit von Datensätzen, Prozessen und Ergebnissen der KI-Entscheidungsfindung sollte sichergestellt werden, um sicherzustellen, dass die Ergebnisse der KI-Entscheidungsfindung für Menschen verständlich und nachvollziehbar sind. Wenn die Entscheidungsergebnisse eines KI-Systems erhebliche Auswirkungen auf Einzelpersonen haben, sollten angemessene und zeitnahe Erklärungen zum Entscheidungsprozess des KI-Systems gegeben werden. Verbessern Sie das allgemeine Verständnis der Benutzer für KI-Systeme, lassen Sie sie die Interaktionen zwischen ihnen und KI-Systemen verstehen und informieren Sie sie wahrheitsgemäß über die Genauigkeit und Grenzen von KI-Systemen. 5. Vielfalt, Nichtdiskriminierung und Fairness Um zu verhindern, dass KI-Systeme Vorurteile und Diskriminierung gegenüber gefährdeten und marginalisierten Gruppen verursachen, sollten sie benutzerzentriert sein und es jedem ermöglichen, KI-Produkte zu verwenden oder KI-Dienste in Anspruch zu nehmen. Befolgen Sie die Prinzipien des universellen Designs und die relevanten Zugänglichkeitsstandards, um den Anforderungen eines möglichst breiten Benutzerspektrums gerecht zu werden. Gleichzeitig sollte die Vielfalt gefördert werden, um relevanten Interessengruppen die Teilnahme am gesamten Lebenszyklus der KI zu ermöglichen. 6. Soziales und ökologisches Wohlergehen Ermutigen Sie KI-Systeme, die Verantwortung für die Förderung einer nachhaltigen Entwicklung und den Schutz der ökologischen Umwelt zu übernehmen, und nutzen Sie KI-Systeme zur Untersuchung und Lösung von Problemen von globaler Bedeutung. Im Idealfall sollten KI-Systeme heutigen und zukünftigen Generationen zugutekommen. Daher sollten bei der Entwicklung, Nutzung und Bereitstellung von KI-Systemen deren Auswirkungen auf die Umwelt, die Gesellschaft und sogar die demokratische Politik umfassend berücksichtigt werden. 7. Verantwortlichkeit Erstens sollte ein Rechenschaftsmechanismus eingerichtet werden, um die verantwortlichen Stellen für den gesamten Prozess der Entwicklung, Bereitstellung und Nutzung von KI-Systemen zu identifizieren. Zweitens: Richten Sie einen Prüfmechanismus für KI-Systeme ein, um Algorithmen, Daten und Designprozesse zu bewerten. Drittens: Identifizieren, erfassen und minimieren Sie die potenziellen negativen Auswirkungen von KI-Systemen auf Einzelpersonen und ergreifen Sie rechtzeitig geeignete Abhilfemaßnahmen, wenn KI-Systeme unfaire Ergebnisse produzieren. Es ist zu beachten, dass unterschiedliche Grundsätze und Anforderungen in einem inhärenten Spannungsverhältnis zueinander stehen können, da sie unterschiedliche Interessen und Werte beinhalten. Daher müssen Entscheidungsträger Kompromisse auf der Grundlage der tatsächlichen Bedingungen eingehen und gleichzeitig die getroffenen Entscheidungen kontinuierlich aufzeichnen, bewerten und kommunizieren. Darüber hinaus schlagen die „Ethischen Richtlinien“ auch einige technische und nicht-technische Methoden vor, um sicherzustellen, dass Entwicklung, Einsatz und Nutzung von KI den oben genannten Anforderungen entsprechen, wie z. B. die Erforschung und Entwicklung erklärbarer KI-Technologie (Explainable AI, kurz XAI), die Schulung von Überwachungsmodellen, den Aufbau eines Rechtsrahmens für die KI-Überwachung, die Festlegung und Verbesserung relevanter Branchenrichtlinien, technischer Standards und Zertifizierungsstandards sowie die Aufklärung zur Stärkung des ethischen Bewusstseins der Öffentlichkeit. 3. Bewertung vertrauenswürdiger KI Basierend auf den oben genannten sieben Kernanforderungen enthalten die ethischen Richtlinien auch eine Bewertungscheckliste für vertrauenswürdige KI. Die Bewertungscheckliste ist hauptsächlich auf KI-Systeme anwendbar, die mit Menschen interagieren. Es soll eine Anleitung für die konkrete Umsetzung von sieben Schlüsselanforderungen bieten und verschiedenen Ebenen innerhalb eines Unternehmens oder einer Organisation, wie z. B. Management, Rechtsabteilung, Forschungs- und Entwicklungsabteilung, Qualitätskontrollabteilung, Personalabteilung, Beschaffung, Tagesgeschäft usw., dabei helfen, gemeinsam die Realisierung vertrauenswürdiger KI sicherzustellen. Die „Ethischen Richtlinien“ weisen darauf hin, dass die in dieser Liste aufgeführten Bewertungspunkte nicht immer erschöpfend sind. Der Aufbau einer vertrauenswürdigen KI erfordert eine kontinuierliche Verbesserung der KI-Anforderungen und die Suche nach neuen Problemlösungen. Alle Beteiligten sollten sich aktiv beteiligen, um sicherzustellen, dass KI-Systeme während ihres gesamten Lebenszyklus sicher, robust, legal und ethisch einwandfrei funktionieren und letztlich der Menschheit zugute kommen. Es zeigt sich, dass die Ethik der künstlichen Intelligenz aus Sicht der EU ein systematisches Projekt ist, das die Kopplung zwischen ethischen Normen und technischen Lösungen erfordert. In anderen Ländern und der internationalen Gemeinschaft befindet sich die Entwicklung einer Ethik für die künstliche Intelligenz möglicherweise noch immer in der Phase der Extraktion abstrakter Werte und der Konsensbildung. Die EU ist jedoch einen Schritt weiter gegangen und hat begonnen, die Einrichtung eines Top-down-Rahmens für die ethische Governance der künstlichen Intelligenz zu prüfen. Politische Empfehlungen für die Governance von KI-Algorithmen: Basierend auf einer Analyse der Herausforderungen, die algorithmische Systeme für Gesellschaft, Technologie und Regulierung mit sich bringen, unterbreitet der Bericht systematische politische Empfehlungen für die Steuerung der Transparenz und Rechenschaftspflicht von Algorithmen. Der Bericht beginnt mit einer allgemeinen Perspektive der Technologie-Governance, erörtert detailliert verschiedene Governance-Optionen und überprüft abschließend spezifische Empfehlungen zur algorithmischen System-Governance in der vorhandenen Literatur. Basierend auf einer umfassenden Überprüfung und Analyse bestehender Empfehlungen zur Governance algorithmischer Systeme unterbreitet der Bericht politische Empfehlungen auf vier verschiedenen Ebenen. 1. Verbesserung der Algorithmenkompetenz der Öffentlichkeit Voraussetzung für die Verwirklichung algorithmischer Rechenschaftspflicht ist algorithmische Transparenz. Dies bedeutet nicht, dass die Öffentlichkeit jedes technische Merkmal des Algorithmus verstehen kann. Der Bericht weist darauf hin, dass ein breites Verständnis der algorithmischen Funktionen wenig Einfluss auf die Erreichung algorithmischer Rechenschaftspflicht hat und dass kurze, standardisierte Offenlegungen mit Informationen, die öffentliche Entscheidungen beeinflussen oder das allgemeine Verständnis der Öffentlichkeit für algorithmische Systeme verbessern können, wirksamer sind. Darüber hinaus spielen investigativer Journalismus und Whistleblowing eine wichtige Rolle bei der Aufdeckung des Missbrauchs von Algorithmen und bei der Erreichung von Transparenz und Rechenschaftspflicht in Bezug auf Algorithmen. So berichtete die New York Times beispielsweise einmal, dass Uber bestimmte algorithmische Technologien einsetze, um städtische Regulierungsbehörden zu identifizieren und zu umgehen (diese Neuigkeit wurde von einem ehemaligen Uber-Mitarbeiter enthüllt). Dieser Bericht erregte sofort große mediale und gesellschaftliche Aufmerksamkeit und auch die Aufsichtsbehörden leiteten Ermittlungen gegen das Unternehmen ein. Neben der Rolle der Aufsichtsbehörde ist es Aufgabe der Berichterstattung, das Verständnis der Öffentlichkeit für Algorithmen in einfacher und verständlicher Sprache zu verbessern. Nachrichtenrecherchen können außerdem einen umfassenden gesellschaftlichen Dialog und Debatten anregen und neue wissenschaftliche Forschungen anstoßen. So löste beispielsweise ein Bericht der gemeinnützigen Organisation ProPublica über die „Maschinenvoreingenommenheit“ von COMPAS, einem Algorithmussystem zur Bewertung krimineller Risiken, das von einigen US-Gerichten verwendet wird, eine Reihe von Studien zur algorithmischen Fairness aus. Auf dieser Grundlage unterbreitet der Governance-Rahmen mehrere politische Empfehlungen zur Stärkung des öffentlichen Bewusstseins für Algorithmen: (1) Aufklärung der Öffentlichkeit über die Kernkonzepte der Algorithmenauswahl und -entscheidung; (2) Standardisierung des obligatorischen Offenlegungsgehalts von Algorithmen; (3) Bereitstellung technischer Unterstützung für Nachrichtenberichte zum Thema „algorithmische Rechenschaftspflicht“; (4) Es sollte möglich sein, Hinweisgeber von der Haftung zu befreien, wenn sie aus Gründen des öffentlichen Interesses gegen die Nutzungsbedingungen oder gegen Rechte des geistigen Eigentums verstoßen. 2. Der öffentliche Sektor etabliert Mechanismen zur Rechenschaftspflicht von Algorithmen Heutzutage beginnen immer mehr öffentliche Sektoren, algorithmische Systeme einzusetzen, um die Büroeffizienz zu verbessern, komplexe Büroprozesse zu unterstützen und bei der Politikgestaltung zu helfen. Wenn der Algorithmus Mängel aufweist, kann dies unermessliche Auswirkungen auf gefährdete Gruppen in der Gesellschaft haben. Daher muss insbesondere der öffentliche Sektor einen soliden Mechanismus zur Transparenz und Rechenschaftspflicht seiner Algorithmen einrichten. Einer der Governance-Mechanismen, die in Betracht gezogen werden können, ist die Einrichtung eines Mechanismus zur algorithmischen Folgenabschätzung (Algorithmic Impact Assessment, AIA) auf Grundlage des Mechanismus zur Datenschutz-Folgenabschätzung (Data Protection Impact Assessment, DPIA) im Datenschutzrecht. Dieser Mechanismus ermöglicht es politischen Entscheidungsträgern, die Nutzungsszenarien algorithmischer Systeme zu verstehen, die beabsichtigten Verwendungszwecke der Algorithmen zu bewerten und entsprechende Empfehlungen abzugeben sowie einen Mechanismus zur Rechenschaftspflicht in Bezug auf Algorithmen zu etablieren. Gemäß dem Governance-Framework umfasst der AIA-Prozess im Wesentlichen: die Veröffentlichung der Definition des „Algorithmussystems“ im öffentlichen Sektor, die öffentliche Bekanntgabe von Zweck, Umfang, beabsichtigter Verwendung sowie relevanten Richtlinien und Praktiken des Algorithmus, die Durchführung und Veröffentlichung von Selbstbewertungen des Algorithmussystems, die öffentliche Beteiligung, die Veröffentlichung der Ergebnisse der Algorithmusbewertung und die regelmäßige Aktualisierung der AIA. 3. Verbesserung des Aufsichtsmechanismus und des gesetzlichen Haftungssystems Einerseits hat die EU hinsichtlich der vielfach geforderten, aber höchst umstrittenen Transparenz der Algorithmen relativ sachdienliche Vorschläge unterbreitet, die auf den Merkmalen der künstlichen Intelligenztechnologie selbst beruhen. Algorithmustransparenz bedeutet nicht, jeden Schritt des Algorithmus, seine technischen Prinzipien und Implementierungsdetails zu erklären. Durch die bloße Offenlegung des Quellcodes des Algorithmussystems kann keine wirksame Transparenz gewährleistet werden. Stattdessen kann es den Datenschutz gefährden oder die sichere Anwendung der Technologie beeinträchtigen. Darüber hinaus ist es angesichts der technischen Eigenschaften der KI äußerst schwierig, das KI-System als Ganzes zu verstehen, und es ist auch sehr effektiv, eine bestimmte von der KI getroffene Entscheidung zu verstehen. Daher wird es für moderne KI-Systeme eine enorme technische Herausforderung darstellen, Transparenz zu erreichen, indem erklärt wird, wie ein bestimmtes Ergebnis erreicht wurde, und die Anwendung von KI stark einschränken. Im Gegenteil: Eine wirksame Transparenz des Verhaltens und der Entscheidungsfindung von KI-Systemen ist wünschenswerter und kann erhebliche Vorteile bringen. So verlangt die DSGVO beispielsweise aufgrund der technischen Eigenschaften künstlicher Intelligenz keine Erläuterung für konkrete automatisierte Entscheidungen, sondern lediglich aussagekräftige Informationen über die zugrundeliegende Logik sowie eine Erläuterung der Bedeutung und der beabsichtigten Folgen der automatisierten Entscheidung. Andererseits ist die EU hinsichtlich der Regulierung von Algorithmen der künstlichen Intelligenz der Ansicht, dass die Ressourcen der meisten privaten Sektoren begrenzt seien und die Auswirkungen ihrer algorithmischen Entscheidungsergebnisse auf die breite Öffentlichkeit relativ gering seien. Daher sollte keine strenge Aufsicht, etwa durch eine algorithmische Folgenabschätzung, verhängt werden. Wenn der private Sektor lediglich zur Einführung von AIA verpflichtet wird, stehen die finanziellen und administrativen Kosten, die er trägt, in keinem Verhältnis zu den Risiken, die die Algorithmen bergen. Dies wird die technologische Innovation und Einführung im privaten Sektor behindern. Daher können algorithmische Systeme mit geringem Risiko durch gesetzliche Haftung reguliert werden, was es dem privaten Sektor ermöglicht, eine strengere Haftung aus unerlaubter Handlung gegen geringere Anforderungen an die algorithmische Transparenz und AIA einzutauschen. Gemäß dem Governance-Framework kann ein entsprechender Regulierungsmechanismus auf verschiedenen Ebenen etabliert werden: AIA-Anforderungen können für algorithmische Entscheidungssysteme in Betracht gezogen werden, die schwerwiegende oder irreversible Folgen haben können; Bei algorithmischen Systemen, die nur allgemeine Auswirkungen haben, kann den Systembetreibern eine strengere Haftung für unerlaubte Handlungen auferlegt werden, während gleichzeitig ihre Pflichten zur Bewertung und Zertifizierung algorithmischer Systeme und zur Gewährleistung, dass die Systeme optimale Standards erfüllen, reduziert werden. Gleichzeitig könnte die Einrichtung einer speziellen Regulierungsbehörde für Algorithmen in Erwägung gezogen werden, deren Aufgaben die Durchführung von Risikobewertungen für Algorithmen, die Untersuchung der Verwendung von Algorithmensystemen durch mutmaßliche Rechtsverletzer, die Beratung anderer Regulierungsbehörden zu Algorithmensystemen sowie die Abstimmung mit Standardisierungsorganisationen, der Industrie und der Zivilgesellschaft zur Festlegung relevanter Standards und bewährter Verfahren umfassen. 4. Stärkung der internationalen Zusammenarbeit bei der Algorithmen-Governance Auch die Verwaltung und der Betrieb algorithmischer Systeme erfordern einen grenzüberschreitenden Dialog und eine grenzüberschreitende Zusammenarbeit. Der regulatorische Eingriff eines Landes in die Transparenz und Rechenschaftspflicht von Algorithmen wird wahrscheinlich als Protektionismus interpretiert oder als unangemessener Versuch angesehen, Zugang zu ausländischen Geschäftsgeheimnissen zu erhalten. Daher empfiehlt das Governance Framework die Einrichtung eines ständigen globalen Algorithm Governance Forums (AGF), um mehrere Interessengruppen im Bereich der algorithmischen Technologie in einen internationalen Dialog einzubinden, Richtlinien und Fachwissen auszutauschen und bewährte Verfahren zur algorithmischen Governance zu diskutieren und zu koordinieren. Erkenntnisse aus der Ethik und Governance der künstlichen Intelligenz in der EU In den vergangenen zwei Jahrzehnten hinkte die EU bei der Entwicklung des Internets hinter den USA und China her. Einer der Hauptgründe hierfür sind Unterschiede in den Gesetzen und Richtlinien. Wie der Autor in seinem Artikel „Über die Beziehung zwischen Internetinnovation und Regulierung – basierend auf einem Vergleich der Vereinigten Staaten, Europas, Japans und Südkoreas“ hervorhebt, sind die institutionellen Regelungen der EU zu Plattformverantwortung, Datenschutz, Online-Urheberrecht usw. älter und strenger als jene der Vereinigten Staaten und bieten kein geeignetes Rechtssystem für Internetinnovationen. Heute, da wir in das intelligente Zeitalter eintreten, führen allgegenwärtige Daten und Algorithmen zu einer neuen Art von KI-gesteuerter Wirtschafts- und Gesellschaftsform. Im Bereich der künstlichen Intelligenz hinkt die EU den USA und anderen Ländern noch immer hinterher. Besonders die im letzten Jahr in Kraft getretene Datenschutz-Grundverordnung (DSGVO) hat erhebliche Auswirkungen auf die Entwicklung und Anwendung künstlicher Intelligenz. Zahlreiche Studien haben gezeigt, dass die DSGVO die Entwicklung neuer Technologien und neuer Dinge wie künstliche Intelligenz und die digitale Wirtschaft in der Europäischen Union behindert und den Geschäftsbetrieb übermäßig belastet und unsicher gemacht hat. [8] Zurück zum Bereich der künstlichen Intelligenz: Die EU hofft, künstliche Intelligenz, eingebettet in ethische Werte, durch institutionelle Strukturen wie Strategien, Industriepolitiken, ethische Rahmenbedingungen, Governance-Mechanismen und rechtliche Rahmenbedingungen zu entwickeln, anzuwenden und einzusetzen, um auf internationaler Ebene eine Führungsrolle zu übernehmen. In dieser Hinsicht verfügt die EU tatsächlich über einzigartige Vorteile. Allerdings ist es eine Überlegung wert, ob sich diese Vorteile letztlich in eine internationale Wettbewerbsfähigkeit der EU im Bereich der künstlichen Intelligenz ummünzen lassen. Insgesamt liefert uns die Auseinandersetzung der EU mit der Ethik und Governance der KI drei Inspirationen. 1. Den technischen Weg zur ethischen Governance erkunden Angesichts der ethischen und sozialen Auswirkungen der zukünftigen Entwicklung künstlicher Intelligenz ist es offensichtlich notwendig, Ethik zu einem grundlegenden Bestandteil der Forschung und Entwicklung künstlicher Intelligenz zu machen und den Aufbau ethischer Forschung und ethischer Governance-Mechanismen im Bereich künstliche Intelligenz zu stärken. Gegenwärtig muss die Umsetzung einer ethischen Steuerung der künstlichen Intelligenz stärker auf die Macht der Industrie und der Technologie setzen, als auf Gesetzgebung und Aufsicht. Aufgrund der schnellen Iteration von Technologien und Geschäftsmodellen ist es für schriftliche Gesetze und Vorschriften schwierig, mit dem Tempo der technologischen Entwicklung Schritt zu halten, was kontraproduktive oder unerwartete Auswirkungen haben kann. Flexiblere Governance-Methoden wie Standards, Selbstdisziplin der Branche, ethische Rahmenbedingungen, bewährte Verfahren und technische Richtlinien werden insbesondere in den frühen Phasen der technologischen Entwicklung immer wichtiger. Darüber hinaus hat das Konzept des „Privacy by Design“ (PbD) im Hinblick auf Privatsphäre und Datenschutz im letzten Jahrzehnt stark an Bedeutung gewonnen und den Schutz der Privatsphäre durch Technologie und Design zu einem unverzichtbaren Teil des Datenschutzmechanismus gemacht. Dabei spielen technische Mechanismen wie Verschlüsselung, Anonymisierung und Differential Privacy eine wichtige Rolle. Dieses Konzept lässt sich auch auf den Bereich der künstlichen Intelligenz übertragen, weshalb die Europäische Union „Ethics by Design“ (kurz: EbD) vorgeschlagen hat. In Zukunft wird es notwendig sein, dem Konzept „Ethics by Design“ durch Standards, technische Richtlinien, Designprinzipien usw. Leben einzuhauchen, um ethische Werte und Anforderungen in Komponenten der Gestaltung von Produkten und Dienstleistungen künstlicher Intelligenz zu verwandeln und Werte in die Technologie einzubetten. 2. Einführung eines kollaborativen Governance-Modells mit mehreren Interessengruppen Künstliche Intelligenz integriert und integriert sich gegenwärtig mit außergewöhnlicher Geschwindigkeit in Wirtschaft und Gesellschaft. Aufgrund des hohen Spezialisierungs-, Technizitäts- und Komplexitätsgrads ist es für Außenstehende schwierig, die damit verbundenen Risiken und Unsicherheiten richtig einzuschätzen und zu verstehen. Daher ist es einerseits notwendig, Regulierungsbehörden, Entscheidungsträgern, der Wissenschaft, der Industrie, sozialen öffentlichen Einrichtungen, Experten, Praktikern, der Öffentlichkeit usw. die Teilnahme an der Steuerung neuer Technologien durch die kollaborative Teilnahme mehrerer Interessengruppen zu ermöglichen, um eine Trennung zwischen Entscheidungsträgern und Praktikern zu vermeiden. Andererseits ist es notwendig, das ethische Bewusstsein der wissenschaftlichen Forscher und der breiten Öffentlichkeit durch Bildung und Werbung für Wissenschaft und Technologie zu verbessern, damit sie nicht nur enge wirtschaftliche Interessen berücksichtigen, sondern auch über die potenziellen Auswirkungen der technologischen Entwicklung und Anwendung sowie deren Prävention und Vorsichtsmaßnahmen nachdenken. Nur dann wird es möglich sein, eine gute Regierungsführung innovativer Technologien durch breite soziale Beteiligung und interdisziplinäre Forschung zu erreichen. Daher ist die EU der Ansicht, dass die ethische Regierungsführung künstlicher Intelligenz Sicherheitsvorkehrungen auf unterschiedlichen Ebenen durch verschiedene Unternehmen erfordert, und daher die Regierungen, Industrien, die Öffentlichkeit und andere Unternehmen verpflichtet, Sicherheitsvorkehrungen auf ihrem jeweiligen Niveau zu etablieren. 3.. Stärkung der internationalen Zusammenarbeit in Bezug auf AI -Ethik und Governance Die Entwicklung künstlicher Intelligenz hängt eng mit dem Datenfluss, der Datenwirtschaft, der digitalen Wirtschaft, der Netzwerksicherheit usw. zusammen. Darüber hinaus haben die Forschung und Entwicklung und Anwendung künstlicher Intelligenz Merkmale wie grenzüberschreitende und internationale Arbeitsteilung, und es ist notwendig, die internationale Zusammenarbeit und Koordination in Ethik und Regierungsführung zu stärken. Zum Beispiel genehmigten die OECD -Mitgliedsländer am 22. Mai 2019 die Grundsätze für künstliche Intelligenz, nämlich die Grundsätze für die verantwortungsvolle Verwaltung der vertrauenswürdigen KI. Dieses ethische Prinzip hat insgesamt fünf Prinzipien, einschließlich integratives Wachstum, nachhaltiger Entwicklung und Wohlbefinden, von Menschen zentrierten Werten und Fairness, Transparenz und Erklärung, Robustheit, Sicherheit und Sicherheit sowie Verantwortung. [9] Am 9. Juni 2019 genehmigte der G20 die von Menschen zentrierten KI-Prinzipien, deren Hauptinhalt der OECD-Prinzipien für künstliche Intelligenz stammt. Dies ist das erste KI -Prinzip, das von Regierungen auf der ganzen Welt unterzeichnet wurde und in Zukunft ein internationaler Standard wird. Ziel ist es, die Entwicklung künstlicher Intelligenz im Rahmen des Menschen-orientierten Entwicklungskonzepts mit praktischen und flexiblen Standards sowie agilen und flexiblen Governance-Methoden zu fördern und gemeinsam den Austausch von KI-Wissen und die Konstruktion vertrauenswürdiger KI zu fördern. [10] Es ist ersichtlich, dass das Konzept der Menschen-orientierten KI-Entwicklung in der internationalen Gemeinschaft Konsens gewinnt. Unter der Anleitung dieses Konzepts müssen wir den internationalen Dialog und den Austausch vertiefen, einen koordinierten gemeinsamen AI -Ethik- und Governance -Rahmen auf internationaler Ebene erreichen, die Forschung und Entwicklung und Anwendung von vertrauenswürdiger und ethischer KI fördern, internationale und andere Risiken verhindern, die durch die Entwicklung und Anwendung von AI gebracht werden können, und sicherzustellen, dass Wissenschaft und Technologie für gute und AI -Vorteile MANKIDN verwendet werden. Quellen: [1] // www.europarl.europa.eu/doceo/document/a-8-2017-0005_en.html?redirect [2] https://www.eesc.europa.eu/en/our-work/opinions-information-reports/opinions/artificial-intelligence [3] https://www.consilium.europa.eu/media/21620/19-euco-final-conclusions-en.pdf [4] https://ec.europa.eu/digital-single-market/en/news/communication-artificial-intelligence-europe [5] https://www.europarl.europa.eu/doceo/document/a-8-2019-0019_en.html#title2 [6] https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai [7] // www.europarl.europa.eu/thinktank/en/document.html?reference=eprs_stu(2019)624262 [8] https://itif.org/publications/2019/06/17/what-evidence-hows-about-impact-gdpr-after-one-Jahr [9] https://www.oecd.org/ing-digital/ai/principles/ [10] https://g20Tradedigital.go.jp/dl/ministerial_statement_on_trade_and_digital_economy.pdf Quelle: |
Die Langhantelbank wird ursprünglich zum Trainier...
Laufen ist eine der beliebtesten Trainingsformen ...
Gehen ist für uns etwas ganz Alltägliches, denn w...
Wenn es um Haima Automobile geht, kennen es viele...
Auf der Nordhalbkugel des Mars, wo sich der Rover...
Für das Studium der Kinder Viele Eltern folgen be...
Nach den Mahlzeiten häuft sich am ehesten Fett an...
Quellen zufolge hat die Zahl der Benutzer, die au...
Ein Kochroboter kann einen Teller Garnelen in zwei...
Plank ist eine relativ verbreitete Fitnessmethode...
Seilspringen ist eine Art Aerobic-Übung. Wie wir ...
Vor nicht allzu langer Zeit wurde bekannt, dass I...
Prüfungsexperte: Luo Huachun Chefredakteur von Ci...
Aufgrund der Epidemie ist die Produktionskapazitä...
Bei Problemen mit der Lendenwirbelsäule treten be...